HyperAIHyperAI

Command Palette

Search for a command to run...

Priorisierte Erfahrungswiedergabe

Tom Schaul; John Quan; Ioannis Antonoglou; David Silver

Zusammenfassung

Erfahrungswiederholung (experience replay) ermöglicht es Online-Verstärkungslernagenten, vergangene Erfahrungen zu speichern und wiederverzuzuschen. In früheren Arbeiten wurden Übergänge der Erfahrung gleichverteilt aus einem Wiederholungsspeicher (replay memory) abgerufen. Dieser Ansatz wiederholt jedoch Übergänge einfach in der gleichen Häufigkeit, wie sie ursprünglich erlebt wurden, unabhängig von ihrer Bedeutung. In dieser Arbeit entwickeln wir ein Framework zur Priorisierung von Erfahrungen, um wichtige Übergänge häufiger zu wiederholen und somit effizienter zu lernen. Wir verwenden die priorisierte Erfahrungswiederholung in Deep Q-Netzwerken (DQN), einem Verstärkungslernalgorithmus, der menschliches Leistungsniveau in vielen Atari-Spielen erreicht hat. DQN mit prioritisierter Erfahrungswiederholung erreicht einen neuen Stand der Technik und übertrifft DQN mit gleichverteilter Wiederholung in 41 von 49 Spielen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Priorisierte Erfahrungswiedergabe | Paper | HyperAI