Distiller l'effet causal des autres classes pour la reconnaissance continue des entités nommées

L'apprentissage continu pour la reconnaissance d'entités nommées (CL-NER) vise à apprendre un nombre croissant de types d'entités au fil du temps à partir d'un flux de données. Cependant, l'apprentissage de la classe Autre de la même manière que les nouveaux types d'entités amplifie l'oubli catastrophique et entraîne une baisse importante des performances. La principale raison derrière ce phénomène est que les échantillons de la classe Autre contiennent généralement des types d'entités anciens, et que les connaissances anciennes dans ces échantillons ne sont pas préservées correctement. Grâce à l'inférence causale, nous identifions que l'oubli est causé par l'absence d'effet causal provenant des données anciennes. À cette fin, nous proposons un cadre causal unifié pour récupérer la causalité à partir des nouveaux types d'entités et de la classe Autre. De plus, nous appliquons l'apprentissage par programme pour atténuer l'impact du bruit des étiquettes et introduisons un poids auto-adaptatif pour équilibrer les effets causaux entre les nouveaux types d'entités et la classe Autre. Les résultats expérimentaux sur trois ensembles de données de référence montrent que notre méthode surpass largement les méthodes actuelles de pointe. En outre, notre méthode peut être combinée avec les méthodes existantes de pointe pour améliorer les performances en CL-NER.