HyperAIHyperAI

Command Palette

Search for a command to run...

タスク認識型ニューラル言語モデルを用いたシーケンスラベリングの強化

Liyuan Liu; Jingbo Shang; Frank F. Xu; Xiang Ren; Huan Gui; Jian Peng; Jiawei Han

概要

言語シーケンスラベリングは、品詞タグ付けや固有表現認識などの多様な問題を包括する一般的なモデリング手法である。最近のニューラルネットワーク(NNs)の進歩により、手作りの特徴量なしで信頼性のあるモデルを構築することが可能となった。しかし、多くの場合、これらのモデルを学習させるのに十分なアノテーションを得るのが難しい。本研究では、未加工のテキストに隠された豊富な知識を抽出し、シーケンスラベリングタスクを強化する新しいニューラルフレームワークを開発した。事前学習済みの単語埋め込みに含まれる単語レベルの知識だけでなく、文字認識型ニューラル言語モデルも組み込まれて、文字レベルの知識を抽出する。さらに、転移学習技術が採用され、異なるコンポーネント間の中立役割を果たし、言語モデルを重要な知識へと導く。従来の方法と比較して、これらのタスク固有の知識により、より簡潔なモデルを使用し、効率的な学習を行うことができる。ほとんどの転移学習方法とは異なり、提案されたフレームワークは追加の教師あり情報に依存していない。自己完結的な訓練シーケンスの順序情報から知識を抽出する。基準データセットでの広範な実験により、文字レベルの知識を利用することの有効性と共同学習の効率性が示された。例えば、CoNLL03 NER タスクにおいては、追加のアノテーションを使用せずに単一GPU上で約6時間でモデル学習が完了し、F1 スコア 91.71±\pm±0.10 を達成した。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています