HyperAIHyperAI

Command Palette

Search for a command to run...

事前学習に基づく自然言語生成のテキスト要約への応用

Haoyu Zhang Jianjun Xu Ji Wang

概要

本論文では、入力シーケンスに基づいて出力シーケンスを2段階で生成する新しい事前学習ベースのエンコーダー-デコーダーフレームワークを提案します。当モデルのエンコーダーでは、BERTを使用して入力シーケンスをコンテキスト表現に変換します。デコーダーについては、当モデルには2つの段階があります。第1段階では、Transformerベースのデコーダーを使用して下書き出力シーケンスを生成します。第2段階では、下書きシーケンスの各単語をマスクし、それをBERTに入力します。その後、入力シーケンスとBERTによって生成された下書き表現を組み合わせて、各マスク位置での精製された単語を予測するためにTransformerベースのデコーダーを使用します。我々が知る限り、本手法はBERTをテキスト生成タスクに適用した最初の方法です。(BERT into text generation tasks) この方向性における最初の一歩として、提案手法を要約タスクで評価しました。実験結果は、CNN/Daily Mailおよびニューヨーク・タイムズデータセットにおいて当モデルが新たな最先端の性能を達成していることを示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
事前学習に基づく自然言語生成のテキスト要約への応用 | 記事 | HyperAI超神経