Command Palette
Search for a command to run...
ViTA:オブジェクトタグのアライメントによる視覚言語翻訳
ViTA:オブジェクトタグのアライメントによる視覚言語翻訳
Kshitij Gupta Devansh Gautam Radhika Mamidi
概要
マルチモーダル機械翻訳(MMT)は、翻訳のためのソーステキストに視覚情報を付加することで、翻訳品質を向上させる手法である。近年、この分野は注目を集め、多くのパイプラインが提案されている。しかし、視覚モダリティが翻訳システムに果たす貢献を明確に示すための高品質なデータセットが依然として不足しているのが現状である。本論文では、WAT 2021の英語からヒンディ語へのマルチモーダル翻訳タスクにおいて、「Volta」としてチーム名を掲げたシステムを提案する。また、同じ言語ペアに対するテキストのみのサブタスクにも参加しており、その際には事前学習済みの多言語シーケンス・トゥ・シーケンスモデルであるmBARTを用いている。マルチモーダル翻訳のためのアプローチとして、画像からオブジェクトタグを抽出することで視覚情報をテキスト領域に変換し、それを入力テキストに統合する手法を提案する。さらに、システムのロバスト性を検証するために、ソーステキストを系統的に劣化させた状況下での性能評価も行った。その結果、マルチモーダルタスクのテストセットおよびチャレンジセットにおいて、それぞれBLEUスコア44.6および51.6を達成した。