
要約
継続学習を用いた固有表現認識(CL-NER)は、データストリームから時間とともに増加する数のエンティティタイプを学習することを目指しています。しかし、新しいエンティティタイプと同じ方法でOther-Classを学習すると、災害的な忘却が強まり、性能が大幅に低下します。この主な原因は、Other-Classのサンプルには通常古いエンティティタイプが含まれており、これらのOther-Classのサンプルに含まれる古い知識が適切に保存されていないためです。因果推論のおかげで、忘却が古いデータからの欠落した因果効果によって引き起こされていることが判明しました。これに対応するため、私たちは新しいエンティティタイプとOther-Classの両方から因果関係を抽出する統一的な因果フレームワークを提案します。さらに、カリキュラム学習を適用してラベルノイズの影響を軽減し、新しいエンティティタイプとOther-Class間の因果効果のバランスを取る自己適応重みを導入します。3つのベンチマークデータセットでの実験結果は、私たちの手法が最新の手法よりも大幅に優れていることを示しています。また、私たちの手法は既存の最先端手法と組み合わせることでCL-NERにおける性能向上にも貢献できます。