2ヶ月前

構造化データからのニューラルテキスト生成とその伝記領域への応用

Remi Lebret; David Grangier; Michael Auli
構造化データからのニューラルテキスト生成とその伝記領域への応用
要約

本論文では、大規模で豊かなドメインにスケーリング可能な概念から文章への生成のためのニューラルモデルを紹介します。私たちは、既存のリソースよりも一桁大きい70万件以上のサンプルを含む新しいWikipediaの伝記データセットを使用して実験を行いました。このデータセットは、WeathergovやRobocupなどの数百語に対して40万語のボキャブラリーを持つなど、非常に多様性が高くなっています。私たちのモデルは、テキスト生成における条件付きニューラル言語モデルに関する最近の研究を基に構築されています。大規模なボキャブラリーに対処するため、これらのモデルを固定されたボキャブラリーと入力データベースから生成出力文へサンプル固有の単語を転送するコピー動作を組み合わせた形に拡張しました。私たちのニューラルモデルは、このタスクに適応した古典的なKneser-Ney言語モデルと比較して約15 BLEU高い性能を示しています。

構造化データからのニューラルテキスト生成とその伝記領域への応用 | 最新論文 | HyperAI超神経