HyperAIHyperAI
منذ 17 أيام

SPAct: الحماية الذاتية التدريب من الخصوصية للتعرف على الحركات

Ishan Rajendrakumar Dave, Chen Chen, Mubarak Shah
SPAct: الحماية الذاتية التدريب من الخصوصية للتعرف على الحركات
الملخص

التسرب البصري للمعلومات الشخصية هو قضية رئيسية ناشئة تُعدّ تحديًا مهمًا للتطبيقات السريعة النمو في فهم الفيديو، مثل التعرف على الأنشطة. تعتمد الطرق الحالية لتقليل تسرب الخصوصية في التعرف على الأنشطة على وجود علامات خصوصية إلى جانب علامات الأنشطة المستخرجة من مجموعة بيانات الفيديو. ومع ذلك، فإن تسمية الإطارات في مجموعة بيانات الفيديو بعلامات الخصوصية غير عمليّة. وقد أفرزت التطورات الحديثة في التعلم الذاتي (SSL) الإمكانات غير المستغلة للبيانات غير المُعلّمة. ولأول مرة، نقدّم إطارًا تدريبيًا جديدًا يزيل معلومات الخصوصية من الفيديو المدخل بطريقة ذاتية التعلّم دون الحاجة إلى علامات خصوصية. يتكوّن إطار التدريب لدينا من ثلاث مكونات رئيسية: دالة التمويه، وفرع إزالة الخصوصية ذاتية التعلّم، وفرع التعرف على الأنشطة. ندرّب إطارنا باستخدام استراتيجية تحسين ماكسيموم-مِينيموم (minimax) لتقليل دالة تكلفة التعرف على الأنشطة وزيادة دالة تكلفة الخصوصية من خلال خسارة ذاتية تعلّم تقابلية. وباستخدام البروتوكولات الحالية المعروفة للأنشطة والخصائص المتعلقة بالخصوصية، يحقق إطارنا توازنًا تنافسيًا بين التعرف على الأنشطة وحماية الخصوصية مقارنة بالأساليب المُعلَّمة المتطورة حاليًا. بالإضافة إلى ذلك، نقدّم بروتوكولًا جديدًا لتقييم قدرة الدالة المُموّهة على التعميم إلى أنشطة وخصائص خصوصية جديدة، ونُظهر أن إطارنا الذاتي التعلّم يتفوّق على الأساليب المُعلَّمة الحالية. الكود متاح عبر: https://github.com/DAVEISHAN/SPAct