11日前
グラフからテキストへの生成における構造情報の保持
Linfeng Song, Ante Wang, Jinsong Su, Yue Zhang, Kun Xu, Yubin Ge, Dong Yu

要約
グラフからテキストへの生成タスクは、入力グラフの意味を保持する文を生成することを目的としている。現在の最先端モデルには、重大な欠陥が存在する。すなわち、出力生成時に入力グラフの核心的な構造情報を誤って表現したり、まったく無視してしまうことがある。本研究では、入力情報の保持を促進するためのより豊かな学習信号を活用することで、この問題に取り組む。具体的には、入力グラフの異なる側面(別称:ビュー)にそれぞれ焦点を当てた2種類の自己符号化損失(autoencoding loss)を導入する。これらの損失は、マルチタスク学習を通じて逆伝播され、モデルのパラメータをより適切に調整する。グラフからテキストへの生成を評価する2つのベンチマークにおける実験結果から、提案手法が最先端のベースラインに対して有効であることが示された。本研究のコードは、\url{http://github.com/Soistesimmer/AMR-multiview} で公開されている。