HyperAIHyperAI

Command Palette

Search for a command to run...

Verwendung der lokalen Wissensgraphenkonstruktion zur Skalierung von Seq2Seq-Modellen auf mehrdokumentenbasierte Eingaben

Angela Fan Claire Gardent Chloe Braud Antoine Bordes

Zusammenfassung

Abfragebasierte Aufgaben im offenen Domänen-NLP erfordern die Informationssynthese aus langen und vielfältigen Web-Ergebnissen. Aktuelle Ansätze extrahieren mithilfe von Methoden wie TF-IDF-Ranking Teile des Web-Textes als Eingabe für Sequenz-zu-Sequenz-Modelle. Wir schlagen vor, für jede Abfrage eine lokal strukturierte graphenbasierte Wissensbasis zu erstellen, die die Web-Suchinformationen komprimiert und Redundanzen reduziert. Wir zeigen, dass durch die Linearisierung des Graphen in eine strukturierte Eingabefolge Modelle die Graph-Darstellungen innerhalb eines herkömmlichen Sequenz-zu-Sequenz-Rahmens effektiv kodieren können. Bei zwei generativen Aufgaben mit sehr langen Texteingaben – langformiger Fragebeantwortung und mehrdokumentenbasiertem Zusammenfassen – erreicht die Verwendung von Graph-Darstellungen als Eingabe eine bessere Leistung als die Nutzung der abgerufenen Textabschnitte.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp