HyperAIHyperAI

Command Palette

Search for a command to run...

複文に基づくTransformer事前学習による複文推論

Luca Di Liello Siddhant Garg Luca Soldaini Alessandro Moschitti

概要

回答文の選択(AS2)や事実検証などの推論タスクは、通常、トランスフォーマーに基づくモデルを個別に文対分類器としてファインチューニングすることで解決される。近年の研究では、複数の候補文間の依存関係を統合的にモデル化することで、これらのタスクの性能が向上することが示されている。本論文では、まず、代表的な事前学習済みトランスフォーマーが、複数候補文を扱う推論タスクにおけるファインチューニングに用いられた場合、著しく性能が劣ることを示す。その後、複数の入力文間にわたる段落レベルの意味構造をモデル化する新しい事前学習目的を提案する。3つのAS2データセットおよび1つの事実検証データセットにおける実験結果から、本研究で提案する事前学習手法が、複数候補文推論タスクにおける統合モデルとしてのトランスフォーマー、およびこれらのタスクの文対形式を扱うクロスエンコーダとしての利用において、従来の手法を上回ることを実証した。本研究のコードおよび事前学習済みモデルは、https://github.com/amazon-research/wqa-multi-sentence-inference にて公開されている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています