Command Palette
Search for a command to run...
Shijian Deng Kai Wang Tianyu Yang Harsh Singh Yapeng Tian

要約
近年、大規模言語モデル(LLM)における自己改善技術の進展により、人的コストの大幅な増加を伴わずにモデルの性能が効率的に向上するようになってきた。この分野はまだ比較的新しいが、マルチモーダル領域への展開は、多様なデータソースを活用し、より汎用的な自己改善型モデルの開発に極めて大きな可能性を秘めている。本調査は、マルチモーダル大規模言語モデル(MLLM)における自己改善について、初めて包括的な概観を提供するものである。現在の研究文献を体系的に整理し、1)データ収集、2)データ構成、3)モデル最適化の三つの観点から、MLLMにおける自己改善技術の手法を検討することで、今後の技術発展を促進することを目的とする。また、一般的に用いられる評価手法や下流タスクの応用例も併記する。最後に、未解決の課題と今後の研究方向性について述べ、結論をまとめている。