HyperAIHyperAI
vor 2 Monaten

Textuelle Entailment für die Extraktion von Ereignisargumenten: Zero- und Few-Shot mit Multi-Quellen-Lernen

Oscar Sainz; Itziar Gonzalez-Dios; Oier Lopez de Lacalle; Bonan Min; Eneko Agirre
Abstract

Neuere Arbeiten haben gezeigt, dass NLP-Aufgaben wie die Relationsextraktion (RE) durch Verbalisierung als Textual-Entailment-Aufgaben umformuliert werden können, wobei vortrainierte Entailment-Modelle starke Leistungen in zero-shot und few-shot Szenarien erzielen. Die Tatsache, dass Relationen in aktuellen RE-Datensätzen leicht verballhornt werden können, wirft Zweifel auf, ob Entailment bei komplexeren Aufgaben effektiv sein würde. In dieser Arbeit zeigen wir, dass Entailment auch bei der Ereignisargumentextraktion (EAE) effektiv ist, den Bedarf an manueller Annotation bei ACE und WikiEvents auf 50 % und 20 % (jeweils) reduziert und gleichzeitig die gleiche Leistung wie bei vollständiger Training erreicht wird. Noch wichtiger ist jedoch, dass die Umformulierung von EAE als Entailment die Abhängigkeit von Schemata mindert, was bisher ein Hindernis für die Übertragung von Annotationen zwischen Domänen war. Dank der Entailment wird die mehrquellige Übertragung zwischen ACE und WikiEvents weiter reduziert: Der Bedarf an Annotationen beträgt ohne Transfer nur noch 10 % und 5 % (jeweils) des vollständigen Trainings. Unsere Analyse zeigt, dass der Schlüssel zu guten Ergebnissen die Nutzung mehrerer Entailment-Datensätze zur Vortrainierung des Entailment-Modells ist. Ähnlich wie bei früheren Ansätzen erfordert unsere Methode eine geringe Menge an manueller Verballhorntung: Für jeden Ereignisargumenttyp sind weniger als 15 Minuten erforderlich, und vergleichbare Ergebnisse können von Benutzern mit unterschiedlichem Expertise-Level erreicht werden.请注意,"verballhornt" 在这里可能不是最合适的翻译,因为它是德语中的一个口语化词汇,且在科技或学术写作中不太常用。建议使用 "verbalisiert" 或 "in Worte gefasst" 来替代。以下是优化后的版本:Neuere Arbeiten haben gezeigt, dass NLP-Aufgaben wie die Relationsextraktion (RE) durch Verbalisierung als Textual-Entailment-Aufgaben umformuliert werden können, wobei vortrainierte Entailment-Modelle starke Leistungen in zero-shot und few-shot Szenarien erzielen. Die Tatsache, dass Relationen in aktuellen RE-Datensätzen leicht verbalisiert werden können, wirft Zweifel auf, ob Entailment bei komplexeren Aufgaben effektiv sein würde. In dieser Arbeit zeigen wir, dass Entailment auch bei der Ereignisargumentextraktion (EAE) effektiv ist und den Bedarf an manueller Annotation bei ACE und WikiEvents auf 50 % und 20 % (jeweils) reduziert, während es gleichzeitig die gleiche Leistung wie bei vollständigem Training erreicht. Noch wichtiger ist jedoch, dass die Umformulierung von EAE als Entailment die Abhängigkeit von Schemata mindert, was bisher ein Hindernis für die Übertragung von Annotationen zwischen Domänen war. Dank der Entailment wird die mehrquellige Übertragung zwischen ACE und WikiEvents weiter reduziert: Der Bedarf an Annotationen beträgt ohne Transfer nur noch 10 % und 5 % (jeweils) des vollständigen Trainings. Unsere Analyse zeigt, dass der Schlüssel zu guten Ergebnissen die Nutzung mehrerer Entailment-Datensätze zur Vortrainierung des Entailment-Modells ist. Ähnlich wie bei früheren Ansätzen erfordert unsere Methode eine geringe Menge an manueller Verbalisierung: Für jeden Ereignisargumenttyp sind weniger als 15 Minuten erforderlich, und vergleichbare Ergebnisse können von Benutzern mit unterschiedlichem Expertise-Level erreicht werden.

Textuelle Entailment für die Extraktion von Ereignisargumenten: Zero- und Few-Shot mit Multi-Quellen-Lernen | Neueste Forschungsarbeiten | HyperAI