HyperAIHyperAI

Command Palette

Search for a command to run...

Gelernt in der Übersetzung: Kontextualisierte Wortvektoren

Bryan McCann James Bradbury Caiming Xiong Richard Socher

Zusammenfassung

Das maschinelle Sehen (Computer Vision) hat von der Initialisierung mehrerer tiefer Schichten mit auf großen überwachten Trainingsdatensätzen wie ImageNet vortrainierten Gewichten profitiert. Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) initialisiert in der Regel nur die tiefste Schicht von tiefen Modellen mit vortrainierten Wortvektoren. In dieser Arbeit verwenden wir einen tiefen LSTM-Encoder aus einem für maschinelle Übersetzung (Machine Translation, MT) trainierten Aufmerksamkeitsmodell zur Kontextualisierung von Wortvektoren. Wir zeigen, dass das Hinzufügen dieser Kontextvektoren (Context Vectors, CoVe) die Leistung bei einer Vielzahl gängiger NLP-Aufgaben verbessert: Sentimentanalyse (SST, IMDb), Frageklassifizierung (TREC), Implikationserkennung (SNLI) und Fragenbeantwortung (SQuAD). Für feingranulare Sentimentanalyse und Implikationserkennung verbessern CoVe die Leistung unserer Basismodelle auf den aktuellen Stand der Forschung.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp