Back to Headlines

Liquid AI推出轻量级多模态模型LFM2-VL,4.5亿参数实现终端高效视觉理解

3일 전

액체 기반 모델 기술을 개발한 스타트업 리퀴드 AI(Liquid AI)가 다중모달 AI 모델 LFM2-VL을 공개하며, 최소 4.5억 파라미터로도 스마트폰·웨어러블 등 단말기에서 빠르고 정확한 시각 이해가 가능하다는 점을 입증했다. 이 모델은 GPU 기반에서 기존 모델 대비 최대 2배 빠른 추론 속도를 기록했으며, 이미지 설명과 시각 질문 응답 등 주요 벤치마크에서 대규모 모델과 견줄 만한 성능을 보였다. LFM2-VL은 리퀴드 AI의 고유한 '액체 기반 모델(LFM)' 아키텍처를 기반으로 하며, 시각 인코더로 SigLIP2 NaFlex를 채택하고, '픽셀 언셔블' 기술로 불필요한 이미지 토큰을 줄여 계산 부담을 낮췄다. 512x512 해상도까지 원본 크기로 입력을 처리해 왜곡 없이 세부 정보와 전반적 맥락을 동시에 분석할 수 있으며, 초과 크기 이미지는 무중복 블록으로 분할해 처리하면서 저해상도 스케일링을 통해 전역 정보를 유지한다. 모델은 Hugging Face에 오픈소스로 공개되었으며, Transformers 라이브러리와 호환되며, 양자화 기술로 에지 장치에서도 효율적으로 활용 가능하다. 연 매출 1000만 달러 이하 기업은 무료 상용 사용이 가능하다. 이는 AI를 클라우드에서 단말기로 옮기는 핵심 기술로, 소형화·고효율화된 모델이 AI 실용화의 새로운 패러다임을 열고 있다.

Related Links

Liquid AI推出轻量级多模态模型LFM2-VL,4.5亿参数实现终端高效视觉理解 | 헤드라인 | HyperAI초신경