HyperAIHyperAI

Command Palette

Search for a command to run...

Zero-Shot-Tripel-Extraktion durch Vorlagenvervollständigung

Bosung Kim†∗ Hayate Iso‡ Nikita Bhutani‡ Estevam Hruschka‡ Ndapa Nakashole† Tom Mitchell‡§

Zusammenfassung

Die Aufgabe der Triplet-Extraktion besteht darin, Paare von Entitäten und deren entsprechende Beziehungen aus unstrukturiertem Text zu extrahieren. Die meisten existierenden Methoden trainieren ein Extraktionsmodell auf Trainingsdaten, die spezifische Zielbeziehungen umfassen, und sind nicht in der Lage, neue Beziehungen zu extrahieren, die während des Trainings nicht beobachtet wurden. Die Verallgemeinerung des Modells auf unbekannte Beziehungen erfordert in der Regel das Feinjustieren an synthetischen Trainingsdaten, die oft rauschig und unzuverlässig sind. Wir zeigen, dass durch die Reduktion der Triplet-Extraktion auf eine Vorlagen-Füll-Aufgabe über einem vortrainierten Sprachmodell (LM) das Extraktionsmodell mit Fähigkeiten zum Zero-Shot-Lernen ausgestattet werden kann und das Bedürfnis nach zusätzlichen Trainingsdaten eliminiert wird. Wir schlagen einen neuen Rahmen vor, ZETT (Zero-Shot Triplet Extraction by Template Infilling), der das Aufgabenziel den Vortrainierungszielen generativer Transformer anpasst, um auf unbekannte Beziehungen zu verallgemeinern. Experimente mit den Datensätzen FewRel und Wiki-ZSL zeigen, dass ZETT konsistente und stabile Leistung aufweist und sogar bei der Verwendung automatisch generierter Vorlagen frühere Standesmethoden übertreffen kann. https://github.com/megagonlabs/zett/


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp