HyperAIHyperAI

Command Palette

Search for a command to run...

PRIMERA:マルチドキュメント要約のためのピラミッドベースマスク文プレトレーニング

Wen Xiao Iz Beltagy Giuseppe Carenini Arman Cohan

概要

我々は、要約を主眼とした複数文書表現のための事前学習モデル「PRIMERA」を紹介する。このモデルは、データセット固有のアーキテクチャや大量の教師あり微調整データの必要性を低減することを目的としている。PRIMERAは、文書間の情報を連携し統合する能力を学習させるために新たに提案した事前学習目的を採用している。また、連結された入力文書の処理を簡素化するため、効率的なエンコーダ・デコーダ型Transformerを用いている。3つの異なるドメインにまたがる6つの複数文書要約データセットにおいて、ゼロショット、フェイショット、フル教師ありの設定で広範な実験を行った結果、PRIMERAはほとんどの設定において、現在の最先端のデータセット特化型モデルおよび事前学習モデルを大幅に上回る性能を達成した。コードおよび事前学習済みモデルは、\url{https://github.com/allenai/PRIMER} で公開されている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています