HyperAIHyperAI

Command Palette

Search for a command to run...

Tiefer rekurrenter generativer Decoder für abstraktive Textzusammenfassung

Piji Li; Wai Lam; Lidong Bing; Zihao Wang

Zusammenfassung

Wir schlagen einen neuen Rahmen für die abstraktive Textzusammenfassung vor, der auf einem sequenz-zu-sequenz ausgerichteten Encoder-Decoder-Modell basiert, das mit einem tiefen rekurrenten generativen Decoder (DRGN) ausgestattet ist.Die in den Zielzusammenfassungen implizierten latente Strukturinformationen werden anhand eines rekurrenten latenten Zufallsmodells gelernt, um die Qualität der Zusammenfassung zu verbessern.Neuronale variationelle Inferenz wird eingesetzt, um die unlösbare posteriore Inferenz für die rekurrenten latenten Variablen zu behandeln.Abstraktive Zusammenfassungen werden sowohl auf Basis der generativen latenten Variablen als auch der diskriminativen deterministischen Zustände erzeugt.Ausführliche Experimente auf einigen Benchmark-Datensätzen in verschiedenen Sprachen zeigen, dass DRGN Verbesserungen gegenüber den Stand-of-the-Art-Methoden erzielt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp