HyperAIHyperAI

Command Palette

Search for a command to run...

Modellierung von Inner-Beziehungen in mathematischen Textaufgaben mit unterschiedlichen funktionalen Multi-Head-Attention-Mechanismen

Lei Wang Jipeng Zhang Bing Tian Dai Yan Wang Jierui Li Dongxiang Zhang

Zusammenfassung

Mehrere Deep-Learning-Modelle wurden vorgeschlagen, um mathematische Textaufgaben (Math Word Problems, MWPs) automatisch zu lösen. Obwohl diese Modelle die Fähigkeit besitzen, Merkmale ohne manuelle Anstrengung zu erfassen, sind ihre Ansätze zur Merkmalsgewinnung nicht speziell auf MWPs zugeschnitten. Um die Vorteile von Deep-Learning-Modellen zu nutzen und gleichzeitig die spezifischen Merkmale von MWPs angemessen zu berücksichtigen, schlagen wir eine Gruppen-Attention-Mechanismus vor, um jeweils globale Merkmale, mengenbezogene Merkmale, mengenpaarbezogene Merkmale und fragebezogene Merkmale in MWPs zu extrahieren. Die experimentellen Ergebnisse zeigen, dass der vorgeschlagene Ansatz signifikant besser abschneidet als bisherige State-of-the-Art-Methoden: Die Leistung steigt von 66,9 % auf 69,5 % bei der Math23K-Datenmenge mit Trainings-Test-Split, von 65,8 % auf 66,9 % bei 5-Fold-Cross-Validation auf Math23K und von 69,2 % auf 76,1 % auf MAWPS.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Modellierung von Inner-Beziehungen in mathematischen Textaufgaben mit unterschiedlichen funktionalen Multi-Head-Attention-Mechanismen | Paper | HyperAI