2ヶ月前
最小限のリソースを用いたクロスリンガルな名詞認識のための強化されたメタ学習
Qianhui Wu; Zijia Lin; Guoxin Wang; Hui Chen; Börje F. Karlsson; Biqing Huang; Chin-Yew Lin

要約
アノテーションリソースのない言語に対する固有表現認識(NER)において、豊富なリソースを持つ言語からの知識転送は効果的な解決策である。既存のすべての手法が直接、学習済みモデルをターゲット言語に転送する一方で、本論文ではテストケースに対して少数の類似例を用いて学習済みモデルを微調整することを提案する。これにより、そのような類似例から伝わる構造的および意味的情報を利用して予測を改善することが可能となる。この目的のために、与えられたテストケースに迅速に対応できる良好なモデルパラメータ初期化を見つけるためのメタ学習アルゴリズムを提示し、文の類似度を計算することで複数の擬似NERタスクを作成してメタトレーニングを行うことを提案する。さらに、異なる言語間でのモデルの汎化能力を向上させるために、マスキングスキームを導入し、メタトレーニング中に損失関数に最大項を追加する。我々は5つのターゲット言語における最小限のリソースを持つクロスリンガル固有表現認識について広範な実験を行った。結果は、我々の手法が既存の最先端手法よりも大幅に優れていることを示している。以上が翻訳した内容です。専門的な用語や技術的概念については一般的な日本語訳を使用し、文章全体としては正式かつ客観的な科技ニュースや学術論文の文体で表現しました。また、原文との内容の一貫性も保ちつつ、日本語読者にとって自然に理解できるように文章構造を最適化しています。