13日前
ReGen:事前学習された言語モデルを用いたテキストおよび知識ベース生成のための強化学習
Pierre L. Dognin, Inkit Padhi, Igor Melnyk, Payel Das

要約
テキストから関連する知識ベース(KB)を自動構築し、KBから意味的に意味のあるテキストを生成することは、機械学習分野における長年の目標である。本論文では、強化学習(RL)を活用して性能を向上させる、テキストとグラフの双方向生成を実現するReGenを提案する。グラフの線形化により、生成方向に関係なく両タスクをシーケンスからシーケンスへの生成問題として再定式化できる。これにより、モデル自身を評価者(critic)として用いる自己批判的シーケンス学習(Self-Critical Sequence Training; SCST)という強化学習フレームワークをシーケンス学習に適用可能となる。我々は、WebNLG+ 2020およびTekGenデータセットにおけるグラフおよびテキスト生成において、SCSTを用いた強化学習の有効性を広範な実験を通じて示す。本システムは、WebNLG+ 2020データセットにおいて、テキストからグラフ生成およびグラフからテキスト生成の両タスクにおいて、WebNLG 2020+チャレンジで公表された既存結果を大幅に上回る最先端の性能を達成している。