2ヶ月前

Infinity-MM: 大規模かつ高品質な指示データを用いたマルチモーダル性能の向上

Shuhao Gu, Jialing Zhang, Siyuan Zhou, Kevin Yu, Zhaohu Xing, Liangdong Wang, Zhou Cao, Jintao Jia, Zhuoyi Zhang, Yixuan Wang, Zhenchong Hu, Bo-Wen Zhang, Jijie Li, Dong Liang, Yingli Zhao, Yulong Ao, Yaoqi Liu, Fangxiang Feng, Guang Liu
Infinity-MM: 大規模かつ高品質な指示データを用いたマルチモーダル性能の向上
要約

ビジョン・ランゲージ・モデル(VLMs)は最近、著しい進歩を遂げていますが、オープンソースの指示データの規模と品質の限界により、クローズドソースのモデルと比較して性能が制約されています。本研究では、この課題に対処するために、4,000万サンプルを含む大規模なマルチモーダル指示データセット「Infinity-MM」を導入します。このデータセットは、厳密な品質フィルタリングと重複除去によって強化されています。また、詳細な画像アノテーションと多様な質問生成を使用したオープンソースVLMに基づく合成指示生成方法も提案しています。このデータを使用して、20億パラメータを持つVLM「Aquila-VL-2B」を訓練し、同規模のモデルにおいて最先端(SOTA)の性能を達成しました。これは、指示データの拡大と合成データの生成がオープンソースモデルの性能を大幅に向上させることを示しています。

Infinity-MM: 大規模かつ高品質な指示データを用いたマルチモーダル性能の向上 | 最新論文 | HyperAI超神経