要約
事前学習済み言語モデル(PLM)を微調整するアプローチは、エンティティマッチング(EM)において成功を収めてきた。その優れた性能にもかかわらず、PLMは訓練データから誤った相関関係(スパurious correlations)を学習する傾向を示す。本研究では、訓練データと異なるデータ分布を持つ実世界の応用環境において、PLMベースのエンティティマッチングモデルが信頼できるかどうかを検証することを目的とする。そのため、EMモデルのロバスト性を評価するためのベンチマークを設計した。評価結果から、訓練データにおけるデータ不均衡がロバスト性の主要な課題であることが明らかになった。また、データ拡張のみではモデルのロバスト性を確保するには不十分であることも明らかになった。これを補うため、PLMベースのEMモデルのロバスト性を向上させるための単純な修正手法を提案する。実験の結果、従来の最先端EMモデルと比較して、本研究で提案するモデルはドメイン内一般化性能において優れた結果を示すとともに、著しく高いロバスト性を実現した。