HyperAIHyperAI
vor 11 Tagen

Lernen, zu ignorieren: Coreferenz in langen Dokumenten mit beschränkten Speichernetzwerken

Shubham Toshniwal, Sam Wiseman, Allyson Ettinger, Karen Livescu, Kevin Gimpel
Lernen, zu ignorieren: Coreferenz in langen Dokumenten mit beschränkten Speichernetzwerken
Abstract

Die Kernreferenzauflösung in langen Dokumenten bleibt eine herausfordernde Aufgabe, da aktuelle Modelle hohe Speicher- und Laufzeitanforderungen stellen. Neuere Ansätze, die eine inkrementelle Kernreferenzauflösung unter Verwendung lediglich der globalen Repräsentation von Entitäten durchführen, zeigen praktische Vorteile, erfordern jedoch die Speicherung aller Entitäten im Speicher, was für lange Dokumente unpraktisch sein kann. Wir argumentieren, dass die vollständige Speicherung aller Entitäten nicht notwendig ist, und stellen ein speichergestütztes neuronales Netzwerk vor, das jeweils nur eine kleine, beschränkte Anzahl von Entitäten verfolgt, wodurch eine lineare Laufzeit in Bezug auf die Dokumentlänge garantiert wird. Wir zeigen, dass (a) das Modell auf OntoNotes und LitBank wettbewerbsfähig bleibt gegenüber Modellen mit hohem Speicher- und Rechenaufwand, und dass (b) das Modell eine effiziente Speicherverwaltungsstrategie lernt, die eine regelbasierte Strategie leicht übertrifft.

Lernen, zu ignorieren: Coreferenz in langen Dokumenten mit beschränkten Speichernetzwerken | Neueste Forschungsarbeiten | HyperAI