HyperAIHyperAI
vor 13 Tagen

Adaptive rationale Aktivierungen zur Steigerung des Deep Reinforcement Learning

Quentin Delfosse, Patrick Schramowski, Martin Mundt, Alejandro Molina, Kristian Kersting
Adaptive rationale Aktivierungen zur Steigerung des Deep Reinforcement Learning
Abstract

Neueste Erkenntnisse aus der Biologie zeigen, dass Intelligenz nicht allein aus den Verbindungen zwischen Neuronen hervorgeht, sondern dass einzelne Neuronen einer größeren rechnerischen Verantwortung unterliegen, als bisher angenommen wurde. Diese Perspektive ist besonders relevant im Kontext stetig verändernder, spezifischer Umgebungen für Verstärkendes Lernen, dennoch setzen aktuelle Ansätze weiterhin hauptsächlich statische Aktivierungsfunktionen ein. In dieser Arbeit begründen wir, warum rationale Funktionen für anpassungsfähige Aktivierungsfunktionen geeignet sind und warum ihre Integration in neuronale Netzwerke von entscheidender Bedeutung ist. Inspiriert durch Rekurrenz in Residual-Netzwerken leiten wir eine Bedingung her, unter der rationale Einheiten bezüglich Residual-Verbindungen abgeschlossen sind, und formulieren eine natürlich regularisierte Variante: das rekurrent-rationale Modul. Wir zeigen, dass die Ausstattung etablierter Algorithmen mit (rekurrent-)rationalen Aktivierungen konsistente Verbesserungen bei Atari-Spielen erzielt, wobei insbesondere einfache DQN-Algorithmen in eine leistungsfähige, mit DDQN und Rainbow konkurrierende Methode transformiert werden.