HyperAIHyperAI
vor 11 Tagen

Wortbasierte Coreferenzauflösung

Vladimir Dobrovolskii
Wortbasierte Coreferenzauflösung
Abstract

Neuere Coreference-Auflösungsmodelle stützen sich stark auf Span-Repräsentationen, um Coreference-Verbindungen zwischen Wortspannen zu finden. Da die Anzahl der Spannen $O(n^2)$ in der Länge des Textes beträgt und die Anzahl potenzieller Verbindungen $O(n^4)$ erreicht, sind verschiedene Pruning-Techniken notwendig, um diesen Ansatz rechnerisch durchführbar zu machen. Stattdessen schlagen wir vor, Coreference-Verbindungen zwischen einzelnen Wörtern statt zwischen Wortspannen zu betrachten und die Spannen anschließend wiederherzustellen. Dies reduziert die Komplexität des Coreference-Modells auf $O(n^2)$ und ermöglicht es, alle potenziellen Erwähnungen zu berücksichtigen, ohne irgendeine zu streichen. Wir zeigen außerdem, dass sich mit diesen Änderungen SpanBERT für die Coreference-Auflösung erheblich von RoBERTa absetzt. Trotz hoher Effizienz erzielt unser Modell eine konkurrenzfähige Leistung gegenüber aktuellen Systemen zur Coreference-Auflösung auf dem OntoNotes-Benchmark.

Wortbasierte Coreferenzauflösung | Neueste Forschungsarbeiten | HyperAI