Command Palette
Search for a command to run...
MegaPairs:ユニバーサルなマルチモーダル検索のための大規模データ合成
MegaPairs:ユニバーサルなマルチモーダル検索のための大規模データ合成
Junjie Zhou Zheng Liu Ze Liu Shitao Xiao Yueze Wang Bo Zhao Chen Jason Zhang Defu Lian Yongping Xiong
概要
マルチモーダル検索に対する需要は急速に拡大しているが、この分野の進展は依然として訓練データの不足によって著しく制限されている。本論文では、視覚言語モデル(VLMs)とオープンドメインの画像を活用し、この手法から生成された大規模な合成データセットを用いる、新しいデータ合成手法「MegaPairs」を提案する。実証的分析の結果、MegaPairsは高品質なデータを生成でき、既存データセットから70倍のデータで訓練されたベースラインモデルを著しく上回る性能を示すマルチモーダル検索器の構築を可能にした。さらに、MegaPairsは一般画像コーパスとオープンソースのVLMsに依存するのみであるため、スケーラビリティが高く、継続的な検索性能の向上が可能である。本段階で、2,600万件以上の学習インスタンスを生成し、そのデータを用いて複数のサイズの異なるモデルを訓練した。これらの新規モデルは、4つの主要な複合画像検索(CIR)ベンチマークにおいて最先端のゼロショット性能を達成し、MMEBが提供する36のデータセットにおいても最高の総合性能を示した。また、追加の下流微調整(fine-tuning)によって顕著な性能向上が確認された。本研究で生成したデータセット、高精度に訓練されたモデル、およびデータ合成パイプラインは、今後のこの分野の発展を促進するため、公開する予定である。