HyperAIHyperAI

Command Palette

Search for a command to run...

エンコーダ-デコーダモデルは、文法的誤り訂正において事前学習されたマスク言語モデルの恩恵を受けることができる

Masahiro Kaneko Masato Mita Shun Kiyono Jun Suzuki Kentaro Inui

概要

本稿では、文法的誤り訂正(GEC)タスクに、事前学習されたマスク言語モデル(MLM)であるBERTのようなモデルを効果的に統合する方法について検討する。この問いに対する答えは、一見直感的なものに思えるかもしれないが、実際にはそれほど単純ではない。これまでのMLMをエンコーダデコーダ(EncDec)モデルに組み込む手法には、GECに適用した際に潜在的な欠点が存在するためである。例えば、GECモデルの入力データの分布は、MLMの事前学習に用いられたコーパスの分布と著しく異なる場合がある(誤りを含む、不自然な表現など)。しかし、従来の手法ではこの問題に対処されていない。我々の実験結果から、提案する手法がMLMの効果を最大限に引き出していることが示された。具体的には、まず与えられたGECコーパスでMLMをファインチューニングし、その出力をGECモデルの追加特徴として用いる方法である。この最良のモデルは、BEA-2019およびCoNLL-2014のベンチマークにおいて、最先端の性能を達成した。本研究のコードは、以下のURLで公開されている:https://github.com/kanekomasahiro/bert-gec


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています