2ヶ月前

視覚的注意を基盤とする多モーダル機械翻訳のニューラルモデル

Mingyang Zhou; Runxiang Cheng; Yong Jae Lee; Zhou Yu
視覚的注意を基盤とする多モーダル機械翻訳のニューラルモデル
要約

私たちは、並列的な視覚情報と文章情報を活用する新しい多モーダル機械翻訳モデルを紹介します。当該モデルは、共有される視覚-言語埋め込みと翻訳器の学習を共同で最適化します。モデルは、視覚的意味と対応する文章的意味を結びつける視覚注意接地メカニズムを利用しています。私たちのアプローチは、Multi30KデータセットおよびAmbiguous COCOデータセットにおいて競争力のある最先端の結果を達成しています。また、実世界の国際オンラインショッピングシナリオを模擬するために新たな多言語多モーダル製品説明データセットを収集しました。このデータセットにおいて、私たちの視覚注意接地モデルは他の方法よりも大幅に優れた性能を示しています。

視覚的注意を基盤とする多モーダル機械翻訳のニューラルモデル | 最新論文 | HyperAI超神経