Zur Generalisierung in der Coreferenzauflösung

Obwohl die Kernreferenzauflösung unabhängig vom Datensatzdomäne definiert ist, übertragen die meisten Modelle zur Durchführung der Kernreferenzauflösung nur schlecht auf bisher nicht gesehene Domänen. Wir konsolidieren eine Reihe von acht Kernreferenzauflösungs-Datensätzen, die unterschiedlichen Domänen dienen, um die Leistungsfähigkeit von Modellen ohne spezielle Anpassung zu evaluieren. Anschließend kombinieren wir drei dieser Datensätze für das Training; obwohl ihre Domäne, die Anmerkungsrichtlinien und Metadaten voneinander abweichen, schlagen wir eine Methode vor, ein einzelnes Modell gemeinsam auf dieser heterogenen Datengemisch zu trainieren, indem wir Datenaugmentation einsetzen, um Unterschiede in der Anmerkung zu berücksichtigen, und Sampling, um die Datengrößen auszugleichen. Wir stellen fest, dass Modelle, die auf einem einzigen Datensatz trainiert wurden, im Zero-Shot-Szenario nur schlecht übertragen, während das gemeinsame Training zu einer verbesserten Gesamtleistung führt und somit eine bessere Generalisierung bei Modellen zur Kernreferenzauflösung ermöglicht. Diese Arbeit leistet einen Beitrag zu einem neuen Benchmark für robuste Kernreferenzauflösung sowie zu mehreren neuen State-of-the-Art-Ergebnissen.