الاستخلاص التنسوري من الدرجة العالية مع الانتباه للتعرف على الحركات

نهدف إلى التقاط الإحصائيات ذات الرتبة العالية لمتجهات الميزات التي تُشكّلها الشبكة العصبية، ونُقدّم تقنيات تجميع من الرتبة الثانية والمتعددة (أي من الرتبة الأعلى) بشكل نهائياً (end-to-end) لتكوين وصف متجهي (tensor descriptor). تتطلب الوصفات المتجهة وجود قياس مماثل قوي نظراً لقلة عدد المتجهات المجمعة وظاهرة الانفجار (burstiness)، التي تحدث عندما يظهر ميزة معينة بشكل أكثر أو أقل من التكرار المتوقع إحصائياً. يرتبط بشكل وثيق عملية انتشار الحرارة (Heat Diffusion Process - HDP) على مصفوفة لابلاسيان الرسم البياني بعملية تطبيع القيم الذاتية (Eigenvalue Power Normalization - EPN) لمصفوفة التباين/الارتباط الذاتي، حيث تُشكّل المصفوفة العكسية لها مصفوفة لابلاسيان رسم بياني دوري (loopy graph Laplacian). نُظهر أن كلا من HDP وEPN يؤديان نفس الدور، أي تعزيز أو تخفيف مقدار الطيف الذاتي، وبالتالي منع ظاهرة الانفجار. نزوّد التنسورات ذات الرتبة العالية بعملية EPN، والتي تعمل ككاشف طيفي للحدوثات ذات الرتبة العالية لمنع الانفجار. كما نُثبت أنه بالنسبة لتجميع تنسوري من الرتبة ( r ) مبني على متجهات ميزات ذات أبعاد ( d )، فإن هذا الكاشف يُقدّم احتمالاً (likelihood) إذا تم "إسقاط" حدوث واحد على الأقل من الرتبة العالية إلى أحد الفضاءات الفرعية الممثلة بـ ( \binom{d}{r} ) فضاء فرعي ممثلة بالتنسور؛ وبالتالي يتم تشكيل مقياس تطبيع تنسوري (tensor power normalization metric) مزوّد بـ ( \binom{d}{r} ) من هذه "الكاشفات". من حيث المساهمات التجريبية، نطبّق عدة أنماط من تقنيات التجميع من الرتبة الثانية والمتعددة على مهمة التعرف على الحركات، ونقدّم مقارنات لم تُقدّم من قبل لهذه الأنماط، ونُظهر نتائج تفوق مستوى الحالة الحالية (state-of-the-art) على مجموعات بيانات HMDB-51 وYUP++ وMPII Cooking Activities.