HyperAIHyperAI

Command Palette

Search for a command to run...

Wortbasierte Coreferenzauflösung

Vladimir Dobrovolskii

Zusammenfassung

Neuere Coreference-Auflösungsmodelle stützen sich stark auf Span-Repräsentationen, um Coreference-Verbindungen zwischen Wortspannen zu finden. Da die Anzahl der Spannen O(n2)O(n^2)O(n2) in der Länge des Textes beträgt und die Anzahl potenzieller Verbindungen O(n4)O(n^4)O(n4) erreicht, sind verschiedene Pruning-Techniken notwendig, um diesen Ansatz rechnerisch durchführbar zu machen. Stattdessen schlagen wir vor, Coreference-Verbindungen zwischen einzelnen Wörtern statt zwischen Wortspannen zu betrachten und die Spannen anschließend wiederherzustellen. Dies reduziert die Komplexität des Coreference-Modells auf O(n2)O(n^2)O(n2) und ermöglicht es, alle potenziellen Erwähnungen zu berücksichtigen, ohne irgendeine zu streichen. Wir zeigen außerdem, dass sich mit diesen Änderungen SpanBERT für die Coreference-Auflösung erheblich von RoBERTa absetzt. Trotz hoher Effizienz erzielt unser Modell eine konkurrenzfähige Leistung gegenüber aktuellen Systemen zur Coreference-Auflösung auf dem OntoNotes-Benchmark.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Wortbasierte Coreferenzauflösung | Paper | HyperAI