
要約
抽象意味表現(Abstract Meaning Representation, AMR)は、自然言語文に対して統一された意味表現を提供する。このため、AMRとテキストの間での変換は、逆方向の二つのタスク、すなわちテキストからAMRへのパース(Text-to-AMR parsing)とAMRからテキストへの生成(AMR-to-Text generation)を生じる。従来のAMR研究は、これらの二つのタスクの双対性にかかわらず、片方の方向のみに焦点を当てており、その性能向上は大規模な追加学習データの導入や構造の複雑化に大きく依存している。これは推論速度に悪影響を及ぼす要因となっている。本研究では、単一段階のマルチタスク戦略を採用することで、双方向の情報遷移を効率的に促進する、データ効率的な双方向ベイズ学習(Bidirectional Bayesian Learning, BiBL)を提案する。これにより、モデルの学習負荷を大幅に軽減しつつ、双方向の推論性能を高めることができる。ベンチマークデータセットにおける評価結果から、追加データを用いないにもかかわらず、従来の強力なseq2seq改良手法を上回る性能を達成した。本研究で提案するBiBLのコードは、以下のURLで公開している:https://github.com/KHAKhazeus/BiBL。