
要約
視覚基盤モデル(Visual Foundation Model: VFM)の表現に基づく視覚生成は、視覚的理解、認識および生成を統合する極めて有望な統一的アプローチを提供する。このような可能性にもかかわらず、大規模なテキストから画像への拡散モデルを完全にVFM表現空間内で学習する試みは、依然としてほとんど検討されていない。このギャップを埋めるために、我々はSVG(Self-supervised representations for Visual Generation)フレームワークをスケーリングし、VFM特徴空間上で高品質なテキストから画像への合成を直接行うことを可能にする「SVG-T2I」を提案する。標準的なテキストから画像への拡散パイプラインを活用することで、SVG-T2Iは競争力のある性能を達成し、GenEvalでは0.75、DPG-Benchでは85.78のスコアを記録した。この結果は、VFMsが生成タスクにおいて内在的な表現能力を有していることを裏付けている。本研究では、自動符号化器および生成モデルを含むプロジェクト全体をオープンソース化しており、学習・推論・評価パイプラインおよび事前学習済み重みも公開することで、表現駆動型視覚生成に関するさらなる研究を促進することを目的としている。