SAINT+:Zeitliche Merkmale zur Vorhersage der Korrektheit in EdNet integrieren

Wir stellen SAINT+, einen Nachfolger von SAINT, vor, einem auf Transformers basierenden Modell für das Wissensverfolgung (Knowledge Tracing), das Übungs- und Antwortinformationen separat verarbeitet. Anschließend an die Architektur von SAINT verfügt SAINT+ über eine Encoder-Decoder-Struktur, wobei der Encoder selbst-Attention-Schichten auf eine Folge von Übungs-Embeddings anwendet und der Decoder abwechselnd selbst-Attention-Schichten und Encoder-Decoder-Attention-Schichten auf Folgen von Antwort-Embeddings und der Ausgabe des Encoders anwendet. Darüber hinaus integriert SAINT+ zwei zeitliche Merkmals-Embeddings in die Antwort-Embeddings: die Verweilzeit (elapsed time), also die Zeit, die ein Schüler benötigt, um eine Aufgabe zu bearbeiten, sowie die Lag-Zeit (lag time), also das Zeitintervall zwischen aufeinanderfolgenden Lernaktivitäten. Wir evaluieren empirisch die Wirksamkeit von SAINT+ anhand von EdNet, dem größten öffentlich verfügbaren Benchmark-Datensatz im Bildungsbereich. Die experimentellen Ergebnisse zeigen, dass SAINT+ eine state-of-the-art-Leistung in der Wissensverfolgung erzielt, wobei die AUC (Area Under the Receiver Operating Characteristic Curve) im Vergleich zu SAINT, dem derzeitigen state-of-the-art-Modell auf dem EdNet-Datensatz, um 1,25 Prozentpunkte verbessert wird.