Command Palette
Search for a command to run...

الملخص
تم استخدام سياسات التحكم البصرية-الحركية المستندة إلى التعلم بالمحاكاة على نطاق واسع في مهام التلاعب بالروبوتات، حيث يُعتمد عادةً على ملاحظات بصرية وحالات موضعية (proprioceptive states) معًا لتحقيق تحكم دقيق. ومع ذلك، في هذه الدراسة، نلاحظ أن هذه الممارسة الشائعة تجعل السياسة تعتمد بشكل مفرط على مدخلات الحالة الموضعية، ما يؤدي إلى تجاوز التكييف (overfitting) على المسارات التدريبية، وبالتالي يُضعف القدرة على التعميم المكاني. على النقيض من ذلك، نقترح سياسة "خالية من الحالة" (State-free Policy)، والتي تُزيل مدخلات الحالة الموضعية، وتُنبئ بالإجراءات فقط بناءً على الملاحظات البصرية. تُبنى سياسة "خالية من الحالة" في فضاء الإجراءات النسبية للنهاية النهائية (end-effector)، ويجب أن تضمن توفر جميع الملاحظات البصرية ذات الصلة بالمهام، والتي تُوفَّر هنا من خلال كاميرتين واسعتي الزاوية مثبتتين على المعصم. تُظهر النتائج التجريبية أن سياسة "خالية من الحالة" تحقق تعميمًا مكانيًا أقوى بشكل ملحوظ مقارنةً بالسياسات القائمة على الحالة: في مهام العالم الحقيقي مثل رفع ووضع الأشياء، وطي القمصان الصعبة، والتحكم المعقد في الجسم بأكمله، على امتداد عدة هياكل روبوتية مختلفة، ترتفع معدلات النجاح المتوسطة من 0% إلى 85% في تعميم الارتفاع، ومن 6% إلى 64% في تعميم الاتجاه الأفقي. علاوةً على ذلك، تُظهر هذه السياسات أيضًا مزايا في كفاءة البيانات والتكيف بين الهياكل المختلفة، مما يعزز جاهزيتها للتطبيق العملي في البيئات الحقيقية.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.