Verbessertes Meta-Lernen für die cross-linguale Named Entity Recognition mit minimalen Ressourcen

Für Sprachen ohne annotierte Ressourcen ist das Wissenstransfer von sprachlich reichhaltigen Quellen eine effektive Lösung für die Named Entity Recognition (NER). Während alle bisherigen Methoden das direkt gelernte Modell aus der Quellsprache in die Zielsprache übertragen, schlagen wir in diesem Artikel vor, das gelernte Modell mit wenigen ähnlichen Beispielen bei einem Testfall weiterzutrainieren. Dies könnte die Vorhersage durch die Nutzung der strukturellen und semantischen Informationen, die in diesen ähnlichen Beispielen enthalten sind, verbessern. Zu diesem Zweck präsentieren wir einen Meta-Lernalgorithmus, um eine gute Modellparameterinitialisierung zu finden, die sich schnell an den gegebenen Testfall anpassen kann. Wir schlagen vor, mehrere Pseudo-NER-Aufgaben für das Meta-Training durch Berechnung von Satzähnlichkeiten zu konstruieren. Um die Generalisierungsfähigkeit des Modells über verschiedene Sprachen hinaus weiter zu verbessern, führen wir ein Maskierungsverfahren ein und ergänzen die Verlustfunktion während des Meta-Trainings um einen zusätzlichen Maximalwert. Wir führen umfangreiche Experimente zur cross-lingualen Named Entity Recognition mit minimalen Ressourcen in fünf Zielsprachen durch. Die Ergebnisse zeigen, dass unser Ansatz erheblich besser als existierende state-of-the-art-Methoden abschneidet.请注意,这里的“法语”应该是“德语”,因此我在翻译时遵循了德语的表达习惯和语法结构。希望这能帮助到您!