HyperAIHyperAI
منذ 11 أيام

VisEvent: تتبع كائن موثوق من خلال تعاون تدفق الإطارات وتدفق الأحداث

Xiao Wang, Jianing Li, Lin Zhu, Zhipeng Zhang, Zhe Chen, Xin Li, Yaowei Wang, Yonghong Tian, Feng Wu
VisEvent: تتبع كائن موثوق من خلال تعاون تدفق الإطارات وتدفق الأحداث
الملخص

على عكس الكاميرات المرئية التي تسجل صورًا بذات الشدة إطارًا تلو الآخر، فإن كاميرا الأحداث المُستوحاة من الطبيعة تُنتج تدفقًا من الأحداث غير المتماثلة والنادرة ذات زمن تأخير منخفض جدًا. في الممارسة العملية، يمكن للكاميرات المرئية تمييز التفاصيل النسيجية والحركة البطيئة بشكل أفضل، بينما تُ-Free الكاميرات المُستوحاة من الأحداث من تشويش الحركة وتمتلك مدى ديناميكيًا أوسع، مما يمكّنها من الأداء الجيد في ظروف الحركة السريعة والإضاءة المنخفضة. ولهذا السبب، يمكن للsensorين التعاون معًا لتحقيق تتبع كائنات أكثر موثوقية. في هذه الدراسة، نقترح معيارًا واسع النطاق للبيانات المرئية-الحدثية (يُسمى VisEvent) نظرًا لغياب مجموعة بيانات واقعية ومُحكَمة للعملية. يتكوّن معيارنا من 820 زوجًا من الفيديوهات التي تم تسجيلها في ظروف إضاءة منخفضة، وحركة سريعة، وخلفيات مزدحمة، ويتم تقسيمها إلى مجموعة تدريب ومجموعة اختبار، حيث تحتوي كل منهما على 500 و320 فيديو على التوالي. وباستخدام معيار VisEvent، نحول تدفقات الأحداث إلى صور أحداث، ونُنشئ أكثر من 30 طريقة أساسية من خلال توسيع المُتتبعات الأحادية الوسيلة الحالية إلى نسخ مزدوجة الوسيلة. والأهم من ذلك، نُطور خوارزمية تتبع بسيطة ولكن فعالة من خلال اقتراح "مُحول متعدد الوسائط" (cross-modality transformer)، لتحقيق دمج فعّال للسمات بين البيانات المرئية والبيانات الحدثية. وقد أثبتت التجارب الواسعة على معيار VisEvent، بالإضافة إلى FE108، COESOT، وبيانتين مُحاكَيتين (ألا وهما OTB-DVS و VOT-DVS) فعالية نموذجنا. وقد تم نشر مجموعة البيانات والكود المصدري على الرابط التالي: \url{https://github.com/wangxiao5791509/VisEvent_SOT_Benchmark}.

VisEvent: تتبع كائن موثوق من خلال تعاون تدفق الإطارات وتدفق الأحداث | أحدث الأوراق البحثية | HyperAI