본문 바로가기

비즈니스 사례

MIT 출신 스타트업 Liquid AI, GPT 경쟁 모델 공개

728x90
반응형
SMALL
혁신적 아키텍처로 효율성과 성능 개선 약속

글/ 최한길 기자

MIT에서 분사한 스타트업 Liquid AI가 혁신적인 AI 모델 시리즈인 Liquid Foundation Models(LFMs)를 공개했다. 이 모델들은 기존의 대규모 언어 모델과는 근본적으로 다른 아키텍처를 바탕으로 개발되었으며, 다양한 데이터 유형에서 향상된 효율성과 성능을 제공할 것으로 기대된다.

LFMs는 동적 시스템, 신호 처리, 수치 선형 대수학에 기반한 계산 단위로 구축되었다. 이 접근 방식은 효율적인 메모리 사용과 긴 데이터 시퀀스 처리를 가능하게 하여 텍스트, 오디오, 이미지, 비디오, 신호 등 다양한 유형의 순차 데이터를 처리하는 데 적합하다.

또한 추론 중 실시간 조정이 가능하며, 특히 장문 맥락 처리에서 기존 모델보다 훨씬 작은 메모리 공간을 차지한다.

Liquid AI는 세 가지 모델을 선보였다. 1.3B 파라미터의 LFM-1B는 자원 제약 환경용이며, 3.1B 파라미터의 LFM-3B는 모바일 앱, 로봇, 드론 등 엣지 배포용이다. 가장 강력한 모델인 LFM-40B는 40.3B 파라미터를 가진 '전문가 혼합' 시스템으로 복잡한 클라우드 기반 작업에 최적화되어 있다.

초기 벤치마크 결과에 따르면 LFM-1B는 같은 크기의 트랜스포머 기반 모델들을 능가했으며, LFM-3B는 Microsoft의 Phi-3.5와 Meta의 Llama 시리즈와 경쟁력 있는 결과를 보여주었다. 이 모델들은 일반 및 전문 지식, 수학, 논리적 추론, 장문 맥락 작업에서 강점을 보였다.

Liquid AI는 주요 기술 기업들의 하드웨어에 맞춰 LFM 성능을 최적화하고 있으며, 2024년 10월 23일 MIT에서 전체 출시 행사를 개최할 예정이다. 회사는 오픈 사이언스 접근 방식을 취하면서도 경쟁력 유지를 위해 모델 자체는 오픈소스화하지 않을 계획이다.

 

반응형
LIST