HyperAIHyperAI
vor 2 Monaten

Neuronale Netzmodelle für Paraphrasenerkennung, semantische Textähnlichkeit, natürliche Sprachinferenz und Fragebeantwortung

Wuwei Lan; Wei Xu
Neuronale Netzmodelle für Paraphrasenerkennung, semantische Textähnlichkeit, natürliche Sprachinferenz und Fragebeantwortung
Abstract

In dieser Arbeit analysieren wir mehrere neuronale Netzwerkdesigns (und ihre Variationen) für das Modellieren von Satzpaaren und vergleichen ihre Leistung umfassend anhand von acht Datensätzen, darunter Paraphrasenerkennung, semantische Textähnlichkeit, natürliche Sprachinferenz und Fragebeantwortungsaufgaben. Obwohl die meisten dieser Modelle den Stand der Technik in Bezug auf Leistung beanspruchen, berichteten die ursprünglichen Arbeiten oft nur über einen oder zwei ausgewählte Datensätze. Wir führen eine systematische Studie durch und zeigen, dass (i) die Kodierung kontextueller Informationen durch LSTM und die Interaktion zwischen Sätzen entscheidend sind, (ii) Tree-LSTM nicht so sehr hilft wie bisher behauptet wurde, jedoch überraschenderweise die Leistung bei Twitter-Datensätzen verbessert, (iii) das Enhanced Sequential Inference Model bislang das beste ist für größere Datensätze, während das Pairwise Word Interaction Model die beste Leistung erzielt, wenn weniger Daten zur Verfügung stehen. Wir veröffentlichen unsere Implementierungen als Open-Source-Toolbox.

Neuronale Netzmodelle für Paraphrasenerkennung, semantische Textähnlichkeit, natürliche Sprachinferenz und Fragebeantwortung | Neueste Forschungsarbeiten | HyperAI