HyperAIHyperAI

Command Palette

Search for a command to run...

InternVL:扩展视觉基础模型并对其对齐以适应通用视觉-语言任务

摘要

大型语言模型(LLMs)的指数级增长为多模态AGI系统开辟了众多可能性。然而,视觉及视觉-语言基础模型的发展步伐并未跟上LLMs,而这些模型同样是构建多模态AGI的关键组成部分。在本研究中,我们设计了一种大规模视觉-语言基础模型(InternVL),该模型将视觉基础模型扩展至60亿参数,并利用来自不同来源的网络规模图像-文本数据逐步与LLM对齐。此模型可广泛应用于32个通用的视觉-语言基准测试,包括图像级或像素级识别等视觉感知任务,以及零样本图像/视频分类、零样本图像/视频-文本检索等视觉-语言任务,并且可以与LLM结合创建多模态对话系统。它具备强大的视觉能力,可以作为ViT-22B的良好替代方案。我们希望本研究能够为多模态大模型的发展做出贡献。代码和模型可在https://github.com/OpenGVLab/InternVL 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供