Graph-to-Tree-Lernen zur Lösung von Mathematik-Aufgaben im Textformat

Obwohl die jüngsten baumbasierten neuronalen Modelle vielversprechende Ergebnisse bei der Generierung von Lösungsausdrücken für mathematische Textaufgaben (Math Word Problems, MWP) erzielt haben, erfassen die meisten dieser Modelle die Beziehungen und die Reihenfolge der Größenangaben nicht ausreichend. Dies führt zu unausreichenden Größenrepräsentationen und fehlerhaften Lösungsausdrücken. In diesem Artikel stellen wir Graph2Tree vor, eine neuartige Architektur des tiefen Lernens, die die Stärken eines graphbasierten Encoders und eines baumbasierten Decoders vereint, um präzisere Lösungsausdrücke zu generieren. Innerhalb unseres Graph2Tree-Frameworks sind zwei Graphen enthalten: der Quantity Cell Graph und der Quantity Comparison Graph. Diese wurden speziell entworfen, um die Einschränkungen bestehender Methoden zu überwinden, indem sie die Beziehungen und die Reihenfolge der Größen in MWP effektiv darstellen. Wir führen umfangreiche Experimente auf zwei verfügbaren Datensätzen durch. Die experimentellen Ergebnisse zeigen, dass Graph2Tree die derzeitigen State-of-the-Art-Baselines auf zwei Benchmark-Datensätzen signifikant übertrifft. Zudem diskutieren wir Fallstudien und untersuchen empirisch die Wirksamkeit von Graph2Tree bei der Übersetzung des MWP-Textes in Lösungsausdrücke.