HyperAIHyperAI

Command Palette

Search for a command to run...

Asynchrone Methoden für tiefes Reinforcement Learning

Volodymyr Mnih; Adrià Puigdomènech Badia; Mehdi Mirza; Alex Graves; Timothy P. Lillicrap; Tim Harley; David Silver; Koray Kavukcuoglu

Zusammenfassung

Wir schlagen einen konzeptionell einfachen und leichten Rahmen für tiefes Reinforcement Learning vor, der asynchrones Gradientenabstiegsverfahren zur Optimierung von neuronalen Netzwerksteuerungen verwendet. Wir stellen asynchrone Varianten von vier Standard-Reinforcement-Learning-Algorithmen vor und zeigen, dass parallele Schauspieler-Lerner (actor-learners) einen stabilisierenden Effekt auf das Training haben, was es ermöglicht, dass alle vier Methoden erfolgreich neuronale Netzwerksteuerungen trainieren können. Die beste Methode, eine asynchrone Variante des Actor-Critic-Verfahrens, übertrifft den aktuellen Stand der Technik im Atari-Bereich und benötigt nur die Hälfte der Trainingszeit auf einem einzelnen Mehrkern-CPU anstelle einer GPU. Darüber hinaus zeigen wir, dass das asynchrone Actor-Critic-Verfahren in einer Vielzahl kontinuierlicher Motorsteuerungsprobleme sowie bei einer neuen Aufgabe erfolgreich ist, bei der es darum geht, zufällige 3D-Labyrinthe unter Verwendung visueller Eingaben zu navigieren.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp