Command Palette
Search for a command to run...
Wortbasierte Coreferenzauflösung
Wortbasierte Coreferenzauflösung
Vladimir Dobrovolskii
Zusammenfassung
Neuere Coreference-Auflösungsmodelle stützen sich stark auf Span-Repräsentationen, um Coreference-Verbindungen zwischen Wortspannen zu finden. Da die Anzahl der Spannen O(n2) in der Länge des Textes beträgt und die Anzahl potenzieller Verbindungen O(n4) erreicht, sind verschiedene Pruning-Techniken notwendig, um diesen Ansatz rechnerisch durchführbar zu machen. Stattdessen schlagen wir vor, Coreference-Verbindungen zwischen einzelnen Wörtern statt zwischen Wortspannen zu betrachten und die Spannen anschließend wiederherzustellen. Dies reduziert die Komplexität des Coreference-Modells auf O(n2) und ermöglicht es, alle potenziellen Erwähnungen zu berücksichtigen, ohne irgendeine zu streichen. Wir zeigen außerdem, dass sich mit diesen Änderungen SpanBERT für die Coreference-Auflösung erheblich von RoBERTa absetzt. Trotz hoher Effizienz erzielt unser Modell eine konkurrenzfähige Leistung gegenüber aktuellen Systemen zur Coreference-Auflösung auf dem OntoNotes-Benchmark.