
要約
既存のクロスドメイン固有表現認識(NER)モデルは、多数の未ラベルコーパスや目標ドメインでのラベル付きNER学習データに依存しています。しかし、低リソースの目標ドメインにおけるデータ収集は、費用が高くかつ時間のかかる作業です。そこで、本研究では外部リソースを使用しないクロスドメインNERモデルを提案します。まず、トークンが固有表現であるかどうかを検出する新しい目的関数を追加することで、マルチタスク学習(MTL)を導入します。次に、ゼロリソースドメイン適応の堅牢性を向上させるための「エンティティエキスパートの混合」(Mixture of Entity Experts, MoEE)というフレームワークを導入します。最後に、実験結果は当モデルが強力な無教師クロスドメインシーケンスラベリングモデルよりも優れていることを示しており、当モデルの性能は広範なリソースを利用した最先端モデルとほぼ同等であることが確認されました。