HyperAIHyperAI

Command Palette

Search for a command to run...

Ein zerlegbares Aufmerksamkeitsmodell für natürliche Sprachinferenz

Ankur P. Parikh Oscar Täckström Dipanjan Das Jakob Uszkoreit

Zusammenfassung

Wir schlagen eine einfache neuronale Architektur für die natürliche Sprachinferenz vor. Unser Ansatz verwendet Aufmerksamkeit (Attention), um das Problem in Unterprobleme zu zerlegen, die getrennt gelöst werden können, was die parallele Ausführung trivial macht. Bei der Verwendung des Stanford Natural Language Inference (SNLI)-Datensatzes erzielen wir Stand-des-Wissens-Ergebnisse mit fast einem Größenordnung weniger Parametern als frühere Arbeiten und ohne auf Informationen zur Wortreihenfolge zurückzugreifen. Die Hinzufügung von innerhalb-sätzlicher Aufmerksamkeit, die ein Minimum an Reihenfolge berücksichtigt, führt zu weiteren Verbesserungen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Ein zerlegbares Aufmerksamkeitsmodell für natürliche Sprachinferenz | Paper | HyperAI