Die Destillation kausaler Effekte aus verschiedenen anderen Klassen für kontinuierliche Named-Entity-Erkennung

Kontinuierliches Lernen für die Erkennung benannter Entitäten (CL-NER) strebt danach, eine wachsende Anzahl von Entitätstypen im Laufe der Zeit aus einem Datenstrom zu lernen. Allerdings verstärkt das einfache Lernen der Other-Class auf die gleiche Weise wie neuer Entitätstypen das katastrophale Vergessen und führt zu einem erheblichen Leistungsverlust. Der Hauptgrund dafür ist, dass Other-Class-Beispiele in der Regel alte Entitätstypen enthalten und das alte Wissen in diesen Beispielen nicht angemessen bewahrt wird. Dank der kausalen Inferenz konnten wir identifizieren, dass das Vergessen durch den fehlenden kausalen Effekt aus den alten Daten verursacht wird. Zu diesem Zweck schlagen wir ein einheitliches kausales Framework vor, um die Kausalität sowohl von neuen Entitätstypen als auch von Other-Class zu extrahieren. Darüber hinaus wenden wir Curriculum Learning an, um den Einfluss von Label-Rauschen zu mildern, und führen ein selbstanpassendes Gewicht ein, um die kausalen Effekte zwischen neuen Entitätstypen und Other-Class auszugleichen. Experimentelle Ergebnisse auf drei Benchmark-Datensätzen zeigen, dass unsere Methode die Standarte der besten bisher bekannten Methoden deutlich übertreffen kann. Zudem kann unsere Methode mit bestehenden state-of-the-art-Methoden kombiniert werden, um die Leistung in CL-NER weiter zu verbessern.