HyperAIHyperAI
vor 2 Monaten

aNMM: Rangfolge von Kurzantwort-Texten mit einem aufmerksamkeitsbasierten neuronalen Matching-Modell

Liu Yang; Qingyao Ai; Jiafeng Guo; W. Bruce Croft
aNMM: Rangfolge von Kurzantwort-Texten mit einem aufmerksamkeitsbasierten neuronalen Matching-Modell
Abstract

Als Alternative zu Fragebeantwortungsmethoden, die auf Feature Engineering basieren, wurden kürzlich tiefes Lernen Ansätze wie Faltungsneuronale Netze (CNNs) und Long Short-Term Memory Modelle (LSTMs) für die semantische Abstimmung von Fragen und Antworten vorgeschlagen. Um jedoch gute Ergebnisse zu erzielen, wurden diese Modelle mit zusätzlichen Features wie Wortübereinstimmungen oder BM25-Werten kombiniert. Ohne diese Kombination erzielen diese Modelle deutlich schlechtere Ergebnisse als Methoden, die auf linguistischem Feature Engineering basieren. In dieser Arbeit schlagen wir ein aufmerksamkeitsbasiertes neuronales Matching-Modell für die Rangfolge kurzer Antworttexte vor. Wir verwenden ein wertgeteiltes Gewichtungsschema anstelle eines positionsgeteilten Gewichtungsschemas, um verschiedene Matching-Signale zu kombinieren, und integrieren das Lernen der Wichtigkeit von Fragebegriffen durch ein Frage-Aufmerksamkeitsnetzwerk. Unter Verwendung des gängigen Benchmarks TREC QA-Daten zeigen wir, dass das relativ einfache aNMM-Modell andere neuronale Netzmodelle, die für die Fragebeantwortung verwendet wurden, signifikant übertrifft und mit Modellen konkurriert, die zusätzliche Features kombinieren. Wenn aNMM mit zusätzlichen Features kombiniert wird, übertrifft es alle Baselines.

aNMM: Rangfolge von Kurzantwort-Texten mit einem aufmerksamkeitsbasierten neuronalen Matching-Modell | Forschungsarbeiten | HyperAI