HyperAIHyperAI

Command Palette

Search for a command to run...

التعلم من البداية إلى النهاية للكشف عن الأفعال من نظرة سريعة على الإطارات في الفيديوهات

Serena Yeung Olga Russakovsky Greg Mori Li Fei-Fei

الملخص

في هذا العمل، نقدم نهجًا كاملاً من النهاية إلى النهاية للكشف عن الأنشطة في الفيديوهات يتعلم مباشرة توقع الحدود الزمنية للأنشطة. فكرتنا الأساسية هي أن عملية الكشف عن الأنشطة هي بطبيعتها عملية مراقبة وتحسين: مراقبة اللحظات في الفيديو، وتحسين الفرضيات حول وقت حدوث النشاط. استنادًا إلى هذه الرؤية، صاغنا نموذجنا على أنه وكيل مستند إلى شبكة عصبية متكررة يتفاعل مع الفيديو عبر الزمن. يقوم الوكيل بمراقبة الإطارات الفيديوية ويقرر كل من أين ينظر بعد ذلك ومتى يصدر تنبؤًا. نظرًا لأن التراجع الخلفي غير كافٍ في هذا الإعداد غير القابل للمفاضلة، نستخدم طريقة REINFORCE لتعلم سياسة قرارات الوكيل. حقق نموذجنا أفضل النتائج المعاصرة على مجموعتي بيانات THUMOS'14 وActivityNet بينما كان يراقب فقط جزءًا صغيرًا (2% أو أقل) من إطارات الفيديو.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
التعلم من البداية إلى النهاية للكشف عن الأفعال من نظرة سريعة على الإطارات في الفيديوهات | مستندات | HyperAI