HyperAIHyperAI

Command Palette

Search for a command to run...

構造化データからのニューラルテキスト生成とその伝記領域への応用

Rémi Lebret David Grangier Michael Auli

概要

本論文では、大規模で豊かなドメインにスケーリング可能な概念から文章への生成のためのニューラルモデルを紹介します。私たちは、既存のリソースよりも一桁大きい70万件以上のサンプルを含む新しいWikipediaの伝記データセットを使用して実験を行いました。このデータセットは、WeathergovやRobocupなどの数百語に対して40万語のボキャブラリーを持つなど、非常に多様性が高くなっています。私たちのモデルは、テキスト生成における条件付きニューラル言語モデルに関する最近の研究を基に構築されています。大規模なボキャブラリーに対処するため、これらのモデルを固定されたボキャブラリーと入力データベースから生成出力文へサンプル固有の単語を転送するコピー動作を組み合わせた形に拡張しました。私たちのニューラルモデルは、このタスクに適応した古典的なKneser-Ney言語モデルと比較して約15 BLEU高い性能を示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
構造化データからのニューラルテキスト生成とその伝記領域への応用 | 記事 | HyperAI超神経