2 个月前

InternVL:扩展视觉基础模型并对其对齐以适应通用视觉-语言任务

Chen, Zhe ; Wu, Jiannan ; Wang, Wenhai ; Su, Weijie ; Chen, Guo ; Xing, Sen ; Zhong, Muyan ; Zhang, Qinglong ; Zhu, Xizhou ; Lu, Lewei ; Li, Bin ; Luo, Ping ; Lu, Tong ; Qiao, Yu ; Dai, Jifeng
InternVL:扩展视觉基础模型并对其对齐以适应通用视觉-语言任务
摘要

大型语言模型(LLMs)的指数级增长为多模态AGI系统开辟了众多可能性。然而,视觉及视觉-语言基础模型的发展步伐并未跟上LLMs,而这些模型同样是构建多模态AGI的关键组成部分。在本研究中,我们设计了一种大规模视觉-语言基础模型(InternVL),该模型将视觉基础模型扩展至60亿参数,并利用来自不同来源的网络规模图像-文本数据逐步与LLM对齐。此模型可广泛应用于32个通用的视觉-语言基准测试,包括图像级或像素级识别等视觉感知任务,以及零样本图像/视频分类、零样本图像/视频-文本检索等视觉-语言任务,并且可以与LLM结合创建多模态对话系统。它具备强大的视觉能力,可以作为ViT-22B的良好替代方案。我们希望本研究能够为多模态大模型的发展做出贡献。代码和模型可在https://github.com/OpenGVLab/InternVL 获取。

InternVL:扩展视觉基础模型并对其对齐以适应通用视觉-语言任务 | 最新论文 | HyperAI超神经