HyperAIHyperAI
vor 2 Monaten

Verbesserte LSTM für die natürlichsprachliche Inferenz

Qian Chen; Xiaodan Zhu; Zhenhua Ling; Si Wei; Hui Jiang; Diana Inkpen
Verbesserte LSTM für die natürlichsprachliche Inferenz
Abstract

Vernunftschluss und Inferenz sind zentrale Aspekte sowohl der menschlichen als auch der künstlichen Intelligenz. Die Modellierung von Inferenz in natürlicher Sprache stellt eine große Herausforderung dar. Mit der Verfügbarkeit großer annotierter Datenmengen (Bowman et al., 2015) ist es kürzlich möglich geworden, neuronale Netzwerke basierte Inferenzmodelle zu trainieren, die sich als sehr effektiv erwiesen haben. In dieser Arbeit präsentieren wir ein neues Standesbeste-Ergebnis, bei dem eine Genauigkeit von 88,6 % auf dem Stanford Natural Language Inference-Datensatz erreicht wird. Im Gegensatz zu den bisher besten Modellen, die sehr komplizierte Netzwerkarchitekturen verwenden, zeigen wir zunächst, dass sorgfältig gestaltete sequentielle Inferenzmodelle auf Basis von Kette-LSTMs alle vorherigen Modelle übertreffen können. Auf dieser Grundlage demonstrieren wir ferner, dass durch explizites Berücksichtigen rekursiver Architekturen sowohl im lokalen Inferenzmodell als auch in der Inferenzkomposition zusätzliche Verbesserungen erzielt werden können. Insbesondere trägt die Integration syntaktischer Parsing-Informationen zu unserem besten Ergebnis bei---sie verbessert die Leistung sogar noch weiter, wenn sie zu einem bereits sehr starken Modell hinzugefügt wird.