HyperAIHyperAI

Command Palette

Search for a command to run...

Vor-Training von Transformer-Modellen mit satzlevelbasierten Zielfunktionen für die Antwort-Satz-Auswahl

Luca Di Liello Siddhant Garg Luca Soldaini Alessandro Moschitti

Zusammenfassung

Eine wichtige Aufgabe bei der Gestaltung von Frage-Antwort-Systemen ist die Auswahl der Antwort-Satz (AS2): die Auswahl des Satzes, der die Antwort auf eine Frage enthält (oder bildet), aus einer Menge relevanter, abgerufener Dokumente. In diesem Paper stellen wir drei neuartige, auf Satzebene basierende Vortrainingsziele für Transformer vor, die sowohl semantische Informationen auf Absatz- als auch auf Dokumentebene innerhalb und zwischen Dokumenten einbeziehen, um die Leistung von Transformers für AS2 zu verbessern und die Abhängigkeit von großen, gelabelten Datensätzen zu verringern. Konkret wird das Modell damit beauftragt, vorherzusagen, ob: (i) zwei Sätze aus demselben Absatz stammen, (ii) ein gegebener Satz aus einem gegebenen Absatz stammt, und (iii) zwei Absätze aus demselben Dokument stammen. Unsere Experimente an drei öffentlichen und einer industriellen AS2-Datensammlung zeigen die empirische Überlegenheit unserer vortrainierten Transformers gegenüber Baseline-Modellen wie RoBERTa und ELECTRA für die Aufgabe AS2.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Vor-Training von Transformer-Modellen mit satzlevelbasierten Zielfunktionen für die Antwort-Satz-Auswahl | Paper | HyperAI