
要約
本研究では、最先端の視覚言語モデル(V+Lモデル)の実装およびそれらを「Hateful Memes Dataset」への応用を提示するVilioを紹介する。実装されたモデル群は一貫したコードベースに統合され、性能向上を目的として最適化されている。Vilioの目的は、任意の視覚言語問題に対する使いやすく、直感的なスタート地点を提供することにある。Vilioに実装された5種類の異なるV+Lモデルをアンサンブル化した手法は、3,300人もの参加者の中でも2位を達成した。コードはGitHubにて公開されており、https://github.com/Muennighoff/vilio からアクセス可能である。