HyperAIHyperAI
vor 2 Monaten

Recurrente Relationale Netze

Rasmus Berg Palm; Ulrich Paquet; Ole Winther
Recurrente Relationale Netze
Abstract

Dieses Papier befasst sich mit dem Lernen, Aufgaben zu lösen, die eine Kette von miteinander verbundenen Schritten relationaler Inferenz erfordern, wie zum Beispiel die Beantwortung komplexer Fragen über die Beziehungen zwischen Objekten oder das Lösen von Rätseln, bei denen die kleineren Elemente einer Lösung sich gegenseitig einschränken. Wir stellen das rekurrente relationale Netzwerk vor, ein allgemeines Modul, das auf einer Graphendarstellung von Objekten operiert. Als Verallgemeinerung des relationalen Netzwerks von Santoro et al. [2017] kann es jedem neuronalen Netzwerkmodell die Fähigkeit hinzufügen, mehrstufige relationale Schlussfolgerungen zu ziehen. Mit dem rekurrenten relationale Netzwerk erreichen wir den Stand der Technik auf dem bAbI-Datensatz für textbasierte Fragebeantwortung und lösen konsistent 20/20 Aufgaben. Da bAbI aus relationaler Schlussfolgerungsperspektive nicht besonders herausfordernd ist, führen wir Pretty-CLEVR ein, einen neuen diagnostischen Datensatz für relationales Denken. Im Pretty-CLEVR-Setup können wir die Fragen variieren, um die Anzahl der erforderlichen Schritte relationaler Schlussfolgerung zu kontrollieren. Unter Verwendung von Pretty-CLEVR untersuchen wir die Grenzen von Mehrlagennetzen (Multi-Layer Perceptrons), relationalen und rekurrenten relationalen Netzwerken. Schließlich zeigen wir, wie rekurrente relationale Netzwerke lernen können, Sudokus aus überwachten Trainingsdaten zu lösen, eine anspruchsvolle Aufgabe, die bis zu 64 Schritte relationaler Schlussfolgerung erfordert. Unter vergleichbaren Methoden erreichen wir den Stand der Technik durch das Lösen von 96,6 % der schwierigsten Sudokus.

Recurrente Relationale Netze | Forschungsarbeiten | HyperAI