HyperAIHyperAI

Command Palette

Search for a command to run...

Domain-angepasste Vortrainingsaufgaben für dichte Retrieval

Zusammenfassung

Die Vortrainierung auf immer größeren Datensätzen mit kontinuierlich wachsenden Modellgrößen ist mittlerweile ein bewährter Ansatz zur Steigerung der Leistungsfähigkeit bei fast allen Aufgaben im Bereich der natürlichen Sprachverarbeitung (NLP). Eine bemerkenswerte Ausnahme bildet die Informationsbeschaffung, bei der bisher zusätzliche Vortrainierung keine überzeugenden Ergebnisse erbracht hat. Wir zeigen, dass dieser Hemmnis mit einem geeigneten Vortrainierungsansatz überwunden werden kann. Dies belegen wir durch die Vortrainierung großer Bi-Encoder-Modelle auf zwei Datensätzen: 1) einer kürzlich veröffentlichten Sammlung aus 65 Millionen synthetisch generierten Fragen und 2) 200 Millionen Paaren aus Beiträgen und Kommentaren aus einem bereits bestehenden Datensatz von Reddit-Konversationen, der von pushshift.io bereitgestellt wurde. Wir evaluieren unsere Modelle anhand einer Reihe von Benchmarks für Informationsbeschaffung und Dialogbeschaffung und zeigen dabei erhebliche Verbesserungen gegenüber überwachten Baselines.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp