HyperAIHyperAI
منذ 2 أشهر

الانتقال من الأشياء إلى الإجراءات: تصنيف وتخصيص الإجراءات دون أي مثال فيديو

Mihir Jain; Jan C. van Gemert; Thomas Mensink; Cees G. M. Snoek
الانتقال من الأشياء إلى الإجراءات: تصنيف وتخصيص الإجراءات دون أي مثال فيديو
الملخص

هدف هذه الورقة هو التعرف على الأفعال في الفيديو دون الحاجة إلى أمثلة. يختلف هذا النهج عن الأساليب التقليدية للتعلم بدون أمثلة، حيث لا نطالب بتصميم وتحديد تصنيفات الخصائص وخرائط الفئات إلى الخصائص لتمكين النقل من الفئات المرئية إلى الفئات غير المرئية. إسهامنا الرئيسي هو objects2action، وهو تمثيل كلامي معنوي يتم تكوينه بواسطة نموذج skip-gram يتضمن آلاف فئات الأشياء. يتم تعيين علامات الأفعال لترميز الأشياء في الفيديو غير المرئي بناءً على مزيج محدب من ارتباطات الأفعال والأشياء. يتميز تمثيلنا المعنوي بثلاث خصائص رئيسية لتلبية خصوصيات الأفعال. أولاً، نقترح آلية لاستغلال الوصف الذي يتكون من كلمتين أو أكثر للأفعال والأشياء. ثانياً، ندمج اختيار الأشياء الأكثر استجابة لكل فعل بشكل آلي. وأخيراً، نوضح كيفية توسيع نهجنا للتعلم بدون أمثلة لتشمل تحديد موقع الأفعال في الفيديو من الناحية المكانية والزمانية. تظهر التجارب التي أجريت على أربع مجموعات بيانات لأفعال إمكانات نهجنا.请注意,"objects2action" 是一个专有名词,因此在阿拉伯语中保留了其英文形式。其他术语如 "skip-gram model" 和 "convex combination" 等也采用了通用的阿拉伯语译法。

الانتقال من الأشياء إلى الإجراءات: تصنيف وتخصيص الإجراءات دون أي مثال فيديو | أحدث الأوراق البحثية | HyperAI