Lösung von Mathematik-Wortproblemen durch die Generierung linguistischer Varianten der Problemstellungen

Die Kunst des mathematischen Denkens bildet einen grundlegenden Pfeiler des intellektuellen Fortschritts und ist ein zentraler Katalysator für die Förderung menschlicher Erfindungsreichtum. Forscher haben kürzlich eine Vielzahl von Arbeiten veröffentlicht, die sich auf die Aufgabe konzentrieren, Mathematische Textaufgaben (MWP) zu lösen – ein entscheidender Schritt hin zu allgemeiner KI. Diese existierenden Modelle sind anfällig für Abhängigkeiten von oberflächlichen Heuristiken und spuriosen Korrelationen, um Lösungsformeln abzuleiten. Um dieses Problem zu verbessern, schlagen wir in dieser Arbeit einen Rahmen für MWP-Löser vor, der auf der Generierung linguistischer Varianten des Aufgabentexts basiert. Der Ansatz besteht darin, jede der Variante-Aufgaben zu lösen und die vorhergesagte Formel mit der Mehrheit der Stimmen auszuwählen. Wir verwenden DeBERTa (Decoding-enhanced BERT with disentangled attention) als Encoder, um von seinen reichhaltigen textuellen Darstellungen und dem verbesserten Mask-Decoder profitieren zu können, mit denen die Lösungsformeln konstruiert werden. Des Weiteren stellen wir einen anspruchsvollen Datensatz vor, $\mathrm{P\small{ARA}\normalsize{MAWPS}}$, der paraphrasierte, feindliche und inverse Varianten von selektiv ausgewählten MWPs aus dem Benchmark-Datensatz $\mathrm{M\small{AWPS}}$ enthält. Wir führen umfangreiche Experimente auf diesem Datensatz sowie auf anderen Benchmark-Datensätzen unter Verwendung einiger Baseline-MWP-Lösermodelle durch. Wir zeigen, dass das Training an linguistischen Varianten von Aufgabenstellungen und das Abstimmen über Kandidaten-Vorhersagen die mathematische Argumentationsfähigkeit und Robustheit des Modells verbessern. Unser Code und unsere Daten stellen wir öffentlich zur Verfügung.