Ausrichtung von Anweisungsaufgaben entfaltet große Sprachmodelle als Zero-Shot-Relation-Extraktoren

Kürzlich gezeigte Arbeiten haben gezeigt, dass das Feintuning großer Sprachmodelle (LLMs) auf großskaligen Datensätzen für Anweisungsfolgeaufgaben die Leistung auf einer Vielzahl von NLP-Aufgaben erheblich verbessert, insbesondere im Zero-Shot-Szenario. Dennoch gelingt es selbst fortgeschrittenen an Anweisungen feingetunten LLMs weiterhin nicht, kleine LMs bei der Relationsextraktion (RE), einer grundlegenden Aufgabe der Informationsextraktion, zu übertrumpfen. Wir vermuten, dass das Feintuning an Anweisungen die RE-Fähigkeiten von LLMs nicht ausreichend aktivieren konnte, da RE in den üblichen Feintuning-Datensätzen eine geringe Häufigkeit aufweist und weniger als 1 % aller Aufgaben ausmacht (Wang et al., 2022). Um diese Limitation zu überwinden, schlagen wir QA4RE vor, einen Rahmen, der die Relationsextraktion mit dem Frage-Antwort-Task (QA) verbindet, einem dominierenden Aufgabentyp in Feintuning-Datensätzen. Umfassende Zero-Shot-RE-Experimente an vier Datensätzen mit zwei Serien an an Anweisungen feingetunten LLMs (insgesamt sechs LLMs) zeigen, dass unser QA4RE-Framework die Leistung von LLMs konsistent verbessert und unsere Hypothese stark bestätigt. Zudem ermöglicht es den LLMs, starke Zero-Shot-Baselines mit großem Abstand zu übertrumpfen. Zusätzlich liefern wir umfassende Experimente und Diskussionen, die die Robustheit, Effektivität im Few-Shot-Szenario sowie die starke Übertragbarkeit unseres QA4RE-Frameworks belegen. Diese Arbeit zeigt einen vielversprechenden Ansatz auf, wie LLMs an anspruchsvolle und unterrepräsentierte Aufgaben angepasst werden können, indem diese mit häufigeren Feintuning-Aufgaben wie QA verknüpft werden.