
要約
データからテキスト生成(data-to-text generation)のタスクを検討する。このタスクは、非言語的な入力からテキスト出力を生成することを目的としている。本研究では、複数の段落を含む長文(long-form text)の生成に注目し、高レベルの情報を一貫性と意味を持たせて整理する役割を担う計画(planning)コンポーネントを搭載したニューラルモデルを提案する。我々は、構造的変分モデルを用いて、計画と生成のステップを交互に実行しながら、潜在的な計画を逐次的に推論する。生成過程では、過去の変分的決定および既に生成されたテキストを条件として、テキストを生成する。RotoWireおよびMLBの2つのデータからテキスト生成ベンチマークにおける実験結果から、本モデルは強力なベースラインを上回り、限られた学習データ(例えば数百件程度)の条件下でもサンプル効率が優れていることが示された。