7日前
DiverGen:より多様な生成データを用いた広いデータ分布の学習によるインスタンスセグメンテーションの改善
Chengxiang Fan, Muzhi Zhu, Hao Chen, Yang Liu, Weijia Wu, Huaqi Zhang, Chunhua Shen

要約
インスタンスセグメンテーションはデータ依存性が強く、モデルの容量が増大するにつれてデータ規模が精度向上に不可欠となる。現在利用されている多数のインスタンスセグメンテーションデータセットは、高コストな手動アノテーションを必要としており、データ規模の拡大が制限されている。このようなデータで学習したモデルは、特に稀なカテゴリにおいて過学習を引き起こしやすくなる。近年、生成モデルを活用して合成データセットを生成し、データ拡張を実現する手法が提案されているが、これらのアプローチは生成モデルの潜在能力を十分に活用できていない。本研究では、データ拡張用の生成データセットをより効率的に構築する戦略、すなわち「DiverGen」を提案する。まず、分布の乖離(distribution discrepancy)という観点から生成データの役割を解明する。モデルが学習する分布に及ぼす異なるデータの影響を検討した結果、生成データがモデルが学習可能なデータ分布を拡張でき、過学習を緩和すると主張する。さらに、生成データの多様性がモデル性能向上に極めて重要であることを明らかにし、カテゴリの多様性、プロンプトの多様性、生成モデルの多様性といった複数の戦略を用いてこれを強化した。これらの戦略を組み合わせることで、データ規模を数百万単位まで拡張しつつ、モデル性能の向上トレンドを維持できる。LVISデータセットにおける実験では、DiverGenは強力なベースラインモデルX-Pasteを大きく上回り、すべてのカテゴリにおいてボックスAP(box AP)とマスクAP(mask AP)でそれぞれ+1.1を達成。特に稀なカテゴリでは、ボックスAPが+1.9、マスクAPが+2.5の向上を実現した。