HyperAI
HyperAI
الرئيسية
المنصة
الوثائق
الأخبار
الأوراق البحثية
الدروس
مجموعات البيانات
الموسوعة
SOTA
نماذج LLM
لوحة الأداء GPU
الفعاليات
البحث
حول
شروط الخدمة
سياسة الخصوصية
العربية
HyperAI
HyperAI
Toggle Sidebar
البحث في الموقع...
⌘
K
Command Palette
Search for a command to run...
المنصة
الرئيسية
SOTA
مكتبة OpenAI جيم
Openai Gym On Hopper V4
Openai Gym On Hopper V4
المقاييس
Average Return
النتائج
نتائج أداء النماذج المختلفة على هذا المعيار القياسي
Columns
اسم النموذج
Average Return
Paper Title
MEow
3332.99
Maximum Entropy Reinforcement Learning via Energy-Based Normalizing Flow
TD3
3319.98
Addressing Function Approximation Error in Actor-Critic Methods
SAC
2882.56
Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor
DDPG
1290.24
Continuous control with deep reinforcement learning
PPO
790.77
Proximal Policy Optimization Algorithms
0 of 5 row(s) selected.
Previous
Next
Openai Gym On Hopper V4 | SOTA | HyperAI