HyperAIHyperAI

Command Palette

Search for a command to run...

الانتقال من الأشياء إلى الإجراءات: تصنيف وتخصيص الإجراءات دون أي مثال فيديو

Mihir Jain Jan C. van Gemert Thomas Mensink Cees G. M. Snoek

الملخص

هدف هذه الورقة هو التعرف على الأفعال في الفيديو دون الحاجة إلى أمثلة. يختلف هذا النهج عن الأساليب التقليدية للتعلم بدون أمثلة، حيث لا نطالب بتصميم وتحديد تصنيفات الخصائص وخرائط الفئات إلى الخصائص لتمكين النقل من الفئات المرئية إلى الفئات غير المرئية. إسهامنا الرئيسي هو objects2action، وهو تمثيل كلامي معنوي يتم تكوينه بواسطة نموذج skip-gram يتضمن آلاف فئات الأشياء. يتم تعيين علامات الأفعال لترميز الأشياء في الفيديو غير المرئي بناءً على مزيج محدب من ارتباطات الأفعال والأشياء. يتميز تمثيلنا المعنوي بثلاث خصائص رئيسية لتلبية خصوصيات الأفعال. أولاً، نقترح آلية لاستغلال الوصف الذي يتكون من كلمتين أو أكثر للأفعال والأشياء. ثانياً، ندمج اختيار الأشياء الأكثر استجابة لكل فعل بشكل آلي. وأخيراً، نوضح كيفية توسيع نهجنا للتعلم بدون أمثلة لتشمل تحديد موقع الأفعال في الفيديو من الناحية المكانية والزمانية. تظهر التجارب التي أجريت على أربع مجموعات بيانات لأفعال إمكانات نهجنا.请注意,"objects2action" 是一个专有名词,因此在阿拉伯语中保留了其英文形式。其他术语如 "skip-gram model" 和 "convex combination" 等也采用了通用的阿拉伯语译法。


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp