HyperAIHyperAI

Command Palette

Search for a command to run...

ReasonBERT: Vortrainiert zum Schlussfolgern mit entfernter Supervision

Xiang Deng Yu Su Alyssa Lees You Wu Cong Yu Huan Sun

Zusammenfassung

Wir stellen ReasonBert vor, eine Vortrainingsmethode, die Sprachmodelle mit der Fähigkeit ausstatten, über langreichweitige Beziehungen und mehrere, möglicherweise hybride Kontexte zu schließen. Im Gegensatz zu bestehenden Vortrainingsansätzen, die lediglich Lernsignale aus lokalen Kontexten natürlicher Texte gewinnen, schlagen wir einen verallgemeinerten Ansatz des entfernten Supervisions vor, um automatisch mehrere Textstücke und Tabellen miteinander zu verknüpfen und so Vortrainingsbeispiele zu generieren, die langreichweitiges Schließen erfordern. Verschiedene Arten des Schließens werden simuliert, darunter die Kreuzung mehrerer Beweisstücke, die Brücke zwischen einzelnen Beweisen und die Erkennung unbeantwortbarer Fälle. Wir führen eine umfassende Evaluation auf einer Vielzahl extraktiver Fragebeantwortungs-Datensätze durch, die von Einzelhop- bis hin zu Mehrhop-Aufgaben reichen und sowohl reine Text- als auch reine Tabellen- sowie hybride Aufgaben umfassen, die unterschiedliche Schließfähigkeiten erfordern. Die Ergebnisse zeigen, dass ReasonBert gegenüber einer Reihe starker Baselines erhebliche Verbesserungen erzielt. Zusätzliche Few-Shot-Experimente demonstrieren zudem, dass unsere Vortrainingsmethode die Stichprobeneffizienz erheblich steigert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
ReasonBERT: Vortrainiert zum Schlussfolgern mit entfernter Supervision | Paper | HyperAI