HyperAIHyperAI

Command Palette

Search for a command to run...

HIBERT: Dokumentenlevel-Vortraining von hierarchischen bidirektionalen Transformatoren für die Dokumentenzusammenfassung

Xingxing Zhang Furu Wei Ming Zhou

Zusammenfassung

Neuronale extraktive Zusammenfassungsmodelle verwenden in der Regel eine hierarchische Encoder-Architektur für die Dokumentencodierung und werden mit satzbasierenden Labels trainiert, die heuristisch mithilfe regelbasierter Methoden erstellt werden. Die Ausbildung des hierarchischen Encoders mit diesen \emph{ungenauen} Labels stellt eine Herausforderung dar. Inspiriert von jüngsten Arbeiten zur Vortrainierung von Transformer-Satzencodern \cite{devlin:2018:arxiv}, schlagen wir {\sc Hibert} (als Abkürzung für {\bf HI}erarchische {\bf B}idirektionale {\bf E}ncoder-{\bf R}epresentationen aus {\bf T}ransformern) für die Dokumentencodierung vor sowie eine Methode, um es unter Verwendung unmarkierter Daten zu vortrainieren. Wir wenden das vortrainierte {\sc Hibert} auf unser Zusammenfassungsmodell an und es übertrifft sein zufällig initialisiertes Pendant um 1,25 ROUGE auf dem CNN/Dailymail-Datensatz und um 2,0 ROUGE auf einer Version des New York Times-Datensatzes. Auch erreichen wir den aktuellen Stand der Technik auf diesen beiden Datensätzen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
HIBERT: Dokumentenlevel-Vortraining von hierarchischen bidirektionalen Transformatoren für die Dokumentenzusammenfassung | Paper | HyperAI