HyperAIHyperAI

Command Palette

Search for a command to run...

Verbesserte LSTM für die natürlichsprachliche Inferenz

Qian Chen; Xiaodan Zhu; Zhenhua Ling; Si Wei; Hui Jiang; Diana Inkpen

Zusammenfassung

Vernunftschluss und Inferenz sind zentrale Aspekte sowohl der menschlichen als auch der künstlichen Intelligenz. Die Modellierung von Inferenz in natürlicher Sprache stellt eine große Herausforderung dar. Mit der Verfügbarkeit großer annotierter Datenmengen (Bowman et al., 2015) ist es kürzlich möglich geworden, neuronale Netzwerke basierte Inferenzmodelle zu trainieren, die sich als sehr effektiv erwiesen haben. In dieser Arbeit präsentieren wir ein neues Standesbeste-Ergebnis, bei dem eine Genauigkeit von 88,6 % auf dem Stanford Natural Language Inference-Datensatz erreicht wird. Im Gegensatz zu den bisher besten Modellen, die sehr komplizierte Netzwerkarchitekturen verwenden, zeigen wir zunächst, dass sorgfältig gestaltete sequentielle Inferenzmodelle auf Basis von Kette-LSTMs alle vorherigen Modelle übertreffen können. Auf dieser Grundlage demonstrieren wir ferner, dass durch explizites Berücksichtigen rekursiver Architekturen sowohl im lokalen Inferenzmodell als auch in der Inferenzkomposition zusätzliche Verbesserungen erzielt werden können. Insbesondere trägt die Integration syntaktischer Parsing-Informationen zu unserem besten Ergebnis bei---sie verbessert die Leistung sogar noch weiter, wenn sie zu einem bereits sehr starken Modell hinzugefügt wird.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Verbesserte LSTM für die natürlichsprachliche Inferenz | Paper | HyperAI