HyperAIHyperAI

Command Palette

Search for a command to run...

Mehraufgaben-basierte Tiefneuronale Netze für die Natürliche Sprachverarbeitung

Xiaodong Liu; Pengcheng He; Weizhu Chen; Jianfeng Gao

Zusammenfassung

In dieser Arbeit stellen wir ein Multi-Task Tiefes Neuronales Netzwerk (MT-DNN) vor, das Darstellungen für mehrere natürlichsprachliche Verarbeitungsaufgaben (NLU) erlernt. Das MT-DNN nutzt nicht nur große Mengen an intertaskdaten, sondern profitiert auch von einem Regularisierungseffekt, der allgemeinere Darstellungen ermöglicht, um sich an neue Aufgaben und Domains anzupassen. Das MT-DNN erweitert das Modell, das von Liu et al. (2015) vorgeschlagen wurde, durch die Integration eines vortrainierten bidirektionalen Transformer-Sprachmodells, bekannt als BERT (Devlin et al., 2018). Das MT-DNN erzielt neue Stand der Technik-Ergebnisse in zehn NLU-Aufgaben, darunter SNLI, SciTail und acht von neun GLUE-Aufgaben, wobei es den GLUE-Benchmark auf 82,7 % (eine absolute Verbesserung von 2,2 %) erhöht. Wir zeigen außerdem anhand der Datensätze SNLI und SciTail, dass die durch das MT-DNN gelernten Darstellungen eine Domänenanpassung mit deutlich weniger domänenspezifischen Labels ermöglichen als die vortrainierten BERT-Darstellungen. Der Code und die vortrainierten Modelle sind öffentlich verfügbar unter https://github.com/namisan/mt-dnn.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp