Few-shot relationale Schlussfolgerung durch Verbindungsuntergraphen-Vortrainierung

Die Aufgabe der Few-Shot-Wissensgraphen-(KG-)Vervollständigung zielt darauf ab, induktives Schließen über den Wissensgraphen durchzuführen: Gegeben sind lediglich einige Support-Tripel einer neuen Relation $\bowtie$ (z. B. (chop,$\bowtie$,kitchen), (read,$\bowtie$,library)), und das Ziel besteht darin, die entsprechenden Query-Tripel derselben, bisher unbekannten Relation $\bowtie$ vorherzusagen, z. B. (sleep,$\bowtie$,?). Aktuelle Ansätze formulieren dieses Problem im Rahmen eines Meta-Lernens, bei dem das Modell zunächst gemeinsam über zahlreiche Trainings-Few-Shot-Aufgaben gelernt werden muss, wobei jede Aufgabe durch ihre jeweilige Relation definiert ist, um eine effektive Lern- oder Vorhersageleistung auf der Ziel-Few-Shot-Aufgabe zu ermöglichen. In realen Wissensgraphen stellt die Erstellung einer großen Anzahl solcher Trainingsaufgaben jedoch eine herausfordernde, ad-hoc-orientierte Aufgabe dar. Hier stellen wir den Connection Subgraph Reasoner (CSR) vor, der Vorhersagen für die Ziel-Few-Shot-Aufgabe direkt treffen kann, ohne dass eine vorherige Vortrainierung auf einer menschlich kuratierten Sammlung von Trainingsaufgaben erforderlich ist. Der Schlüsselansatz von CSR besteht darin, explizit einen gemeinsamen Verbindungssubgraphen zwischen Support- und Query-Tripeln zu modellieren, inspiriert durch das Prinzip der eliminativen Induktion. Um die Anpassung an spezifische Wissensgraphen zu ermöglichen, entwickeln wir ein entsprechendes selbstüberwachtes Vortrainingsverfahren mit dem Ziel, automatisch generierte Verbindungssubgraphen wiederherzustellen. Das vortrainierte Modell kann anschließend direkt auf Ziel-Few-Shot-Aufgaben angewendet werden, ohne dass eine zusätzliche Anpassung an Few-Shot-Aufgaben notwendig ist. Umfangreiche Experimente an realen Wissensgraphen – darunter NELL, FB15K-237 und ConceptNet – belegen die Wirksamkeit unseres Ansatzes: Wir zeigen, dass selbst eine lernfreie Implementierung von CSR bereits konkurrenzfähige Ergebnisse auf Ziel-Few-Shot-Aufgaben erzielt; mit Vortrainierung erreicht CSR signifikante Verbesserungen von bis zu 52 % bei anspruchsvolleren induktiven Few-Shot-Aufgaben, bei denen die beteiligten Entitäten während (Vor-)Trainings ebenfalls nicht vorkamen.