
要約
ニューラルな固有表現認識(NER)モデルは、過信問題に容易に遭遇し、性能とキャリブレーションが低下する可能性があります。ラベルスムージングのアイデアから着想を得て、NERエンジニアリングにおける境界注釈の曖昧性を背景として、我々はスパンベースのニューラルNERモデル向けの正則化技術として境界スムージングを提案します。この手法は、注釈された範囲から周辺の範囲へとエンティティ確率を再割り当てします。単純ながら強力な基準モデルに基づいて構築された当該モデルは、8つの著名なNERベンチマークで以前の最先端システムに匹敵または優れた結果を達成しています。さらなる経験的分析により、境界スムージングが過信問題を効果的に緩和し、モデルのキャリブレーションを改善するとともに、より平滑なニューラル最小値と損失関数の地形をもたらすことが示唆されています。