HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen, zu ignorieren: Coreferenz in langen Dokumenten mit beschränkten Speichernetzwerken

Shubham Toshniwal Sam Wiseman Allyson Ettinger Karen Livescu Kevin Gimpel

Zusammenfassung

Die Kernreferenzauflösung in langen Dokumenten bleibt eine herausfordernde Aufgabe, da aktuelle Modelle hohe Speicher- und Laufzeitanforderungen stellen. Neuere Ansätze, die eine inkrementelle Kernreferenzauflösung unter Verwendung lediglich der globalen Repräsentation von Entitäten durchführen, zeigen praktische Vorteile, erfordern jedoch die Speicherung aller Entitäten im Speicher, was für lange Dokumente unpraktisch sein kann. Wir argumentieren, dass die vollständige Speicherung aller Entitäten nicht notwendig ist, und stellen ein speichergestütztes neuronales Netzwerk vor, das jeweils nur eine kleine, beschränkte Anzahl von Entitäten verfolgt, wodurch eine lineare Laufzeit in Bezug auf die Dokumentlänge garantiert wird. Wir zeigen, dass (a) das Modell auf OntoNotes und LitBank wettbewerbsfähig bleibt gegenüber Modellen mit hohem Speicher- und Rechenaufwand, und dass (b) das Modell eine effiziente Speicherverwaltungsstrategie lernt, die eine regelbasierte Strategie leicht übertrifft.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp