HyperAIHyperAI

Command Palette

Search for a command to run...

ProphetNet: Vorhersage zukünftiger N-Gramme für die sequenz-zu-Sequenz-Vortrainierung

Weizhen Qi Yu Yan Yeyun Gong Dayiheng Liu Nan Duan Jiusheng Chen Ruofei Zhang Ming Zhou

Zusammenfassung

Diese Arbeit präsentiert ein neues sequenz-zu-Sequenz-Vortrainingsmodell namens ProphetNet, das ein neuartiges selbstüberwachtes Ziel, die Vorhersage zukünftiger n-Gramme, sowie den vorgeschlagenen n-Stream-Selbst-Attention-Mechanismus einführt. Im Gegensatz zu herkömmlichen sequenz-zu-Sequenz-Modellen, die die Vorhersage des nächsten Schritts optimieren, wird ProphetNet durch die Vorhersage der nächsten n Tokens gleichzeitig auf der Grundlage der vorherigen Kontext-Token an jedem Zeitpunkt optimiert. Die Vorhersage zukünftiger n-Gramme fördert explizit die Planung zukünftiger Tokens und verhindert eine Überanpassung an starke lokale Korrelationen. Wir vortrainieren ProphetNet jeweils mit einem Basisdatensatz (16 GB) und einem großskaligen Datensatz (160 GB). Anschließend führen wir Experimente auf den Benchmarks CNN/DailyMail, Gigaword und SQuAD 1.1 für Aufgaben der abstraktiven Zusammenfassung und Fragengenerierung durch. Die experimentellen Ergebnisse zeigen, dass ProphetNet im Vergleich zu Modellen, die denselben Vortrainingskorpus gleicher Größe verwenden, auf allen diesen Datensätzen neue SOTA-Ergebnisse erzielt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
ProphetNet: Vorhersage zukünftiger N-Gramme für die sequenz-zu-Sequenz-Vortrainierung | Paper | HyperAI