HyperAIHyperAI

Command Palette

Search for a command to run...

aNMM: Rangfolge von Kurzantwort-Texten mit einem aufmerksamkeitsbasierten neuronalen Matching-Modell

Liu Yang Qingyao Ai Jiafeng Guo W. Bruce Croft

Zusammenfassung

Als Alternative zu Fragebeantwortungsmethoden, die auf Feature Engineering basieren, wurden kürzlich tiefes Lernen Ansätze wie Faltungsneuronale Netze (CNNs) und Long Short-Term Memory Modelle (LSTMs) für die semantische Abstimmung von Fragen und Antworten vorgeschlagen. Um jedoch gute Ergebnisse zu erzielen, wurden diese Modelle mit zusätzlichen Features wie Wortübereinstimmungen oder BM25-Werten kombiniert. Ohne diese Kombination erzielen diese Modelle deutlich schlechtere Ergebnisse als Methoden, die auf linguistischem Feature Engineering basieren. In dieser Arbeit schlagen wir ein aufmerksamkeitsbasiertes neuronales Matching-Modell für die Rangfolge kurzer Antworttexte vor. Wir verwenden ein wertgeteiltes Gewichtungsschema anstelle eines positionsgeteilten Gewichtungsschemas, um verschiedene Matching-Signale zu kombinieren, und integrieren das Lernen der Wichtigkeit von Fragebegriffen durch ein Frage-Aufmerksamkeitsnetzwerk. Unter Verwendung des gängigen Benchmarks TREC QA-Daten zeigen wir, dass das relativ einfache aNMM-Modell andere neuronale Netzmodelle, die für die Fragebeantwortung verwendet wurden, signifikant übertrifft und mit Modellen konkurriert, die zusätzliche Features kombinieren. Wenn aNMM mit zusätzlichen Features kombiniert wird, übertrifft es alle Baselines.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp