HyperAIHyperAI

Command Palette

Search for a command to run...

Modellbasiertes Reinforcement Learning für Atari

Zusammenfassung

Modellfreies Reinforcement Learning (RL) kann effektive Strategien für komplexe Aufgaben, wie z.B. Atari-Spiele, sogar auf Basis von Bildbeobachtungen erlernen. Allerdings erfordert dies in der Regel sehr große Mengen an Interaktion – tatsächlich deutlich mehr als ein Mensch benötigen würde, um die gleichen Spiele zu lernen. Wie können Menschen so schnell lernen? Ein Teil der Antwort könnte darin liegen, dass Menschen das Spielmechanik verstehen und vorhersagen können, welche Aktionen zu gewünschten Ergebnissen führen. In dieser Arbeit untersuchen wir, wie Videovorhersagemodelle Agenten ermöglichen können, Atari-Spiele mit weniger Interaktionen als modellfreie Methoden zu lösen. Wir beschreiben Simulated Policy Learning (SimPLe), einen vollständigen modellbasierten tiefen RL-Algorithmus, der auf Videovorhersagemodellen basiert, und stellen einen Vergleich verschiedener Modellarchitekturen vor, darunter eine neuartige Architektur, die in unserem Szenario die besten Ergebnisse liefert. Unsere Experimente bewerten SimPLe anhand einer Reihe von Atari-Spielen im niedrigen Datenregime von 100.000 Interaktionen zwischen Agent und Umgebung, was einem zweistündigen Echtzeitspiel entspricht. In den meisten Spielen übertrifft SimPLe die standesüblichen modellfreien Algorithmen; in manchen Spielen sogar um mehr als eine Größenordnung.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp