다중 모달 인공 지능이 이용 가능해집니다 새로운 모델은 노트북에서 실행됩니다

다중 모달 인공지능을 활용하여 더욱 진화된 새로운 모델이 노트북에서 실행됩니다.

오브시디언(Obsidian)이라고 불리는 새로운 오픈 소스 인공 지능 모델은 10월 30일 레딧 게시물에서 발표되었습니다. 오브시디언은 다중 모드 AI 접근성의 획기적인 발전을 나타냅니다. 오브시디언은 첫 번째 3b 파라미터 다중 모드 AI로, 일반 노트북에서 효율적으로 실행될 수 있는 충분히 작은 모델입니다. <a href=”/?s=Obsidian”>Obsidian</a>

다중 모드 AI는 텍스트, 이미지, 오디오 및 비디오와 같은 다른 모드의 데이터를 처리하고 연결할 수 있는 AI 시스템을 의미합니다. 이 경우, 이 모델은 최신 버전인 <a href=”https://www.worw.com/openais-new-tool-can-detect-fake-images-with-a-catch-enble.html”>OpenAI의 GPT-4V</a>와 마찬가지로 텍스트와 사진을 입력으로 받습니다. <a href=”https://www.worw.com/dalle-3-in-chatgpt-plus-is-helpful-but-it-also-gave-me-outdated-laptop-images-from-1900.html”>DALL-E 3</a> 및 GPT-4와 같은 다중 모드 AI 모델은 인상적인 성능을 보여주었지만, 그 크기가 매우 크기 때문에 실행에는 고가의 고급 하드웨어가 필요하며, 이러한 모델들은 밀히 지킨 비밀이기 때문에 필요한 전문화된 하드웨어가 있더라도 실행할 수 없습니다.

Obsidian AI 인공 지능 모델은 다중 모드 인공 지능을 표준 노트북의 메모리에 탑재합니다.

오브시디언은 다중 모드 인공 지능을 표준 노트북의 메모리에 수용 가능한 작은 모델로 만드는 것으로 이러한 상황을 바꿉니다. 30억 개의 파라미터를 가지고 있는 오브시디언은 Capybara-3B 모델 구조를 기반으로 최신의 같은 크기의 모델과 비교하여 최고의 성능을 달성합니다. 개발자는 Reddit에서 이미 평가가 높은 오픈 소스 7B 모델을 기반으로 한 다중 모드 모델이 곧 출시될 것임을 발표했습니다.

오브시디언의 작은 크기는 LLaMA 모델 구조에서 채용된 기술 덕분입니다. 오브시디언은 적은 파라미터로도 강력한 언어 및 시각 기능을 개발할 수 있도록, 텍스트와 해당 이미지가 쌍으로 제공되는 다양한 합성된 다중 모드 데이터셋에서 사전 학습되었습니다.

결과적으로, 오브시디언은 대화 기능과 시각 이해력을 갖춘 AI 어시스턴트입니다. 오브시디언은 AI에 대한 접근 장벽을 깨고, 장치 내 인공 지능을 위한 새로운 가능성을 열어줍니다.

아직 초기 버전이지만, 오브시디언의 효율적인 형태는 흥미로운 선례를 제시합니다. 이는 다중 모드 AI가 거대한 데이터 센터에 가둬져 있지 않고도 보급 가능한 작은 모델로 만들어질 수 있다는 것을 보여줍니다.

주요 이미지 크레딧: Aimesoft의 이미지 작성에서; 감사합니다!