RSTT: متحول الزمان والمكان في الوقت الحقيقي لتحسين دقة الفيديو الزماني والمكاني

الترميز الفائق للفيديو في الزمان والمكان (STVSR) هو مهمة تضمين مقاطع الفيديو ذات معدل الإطارات المنخفض (LFR) والدقة المنخفضة (LR) لإنتاج نظيرات ذات معدل الإطارات العالي (HFR) ودقة عالية (HR). بينما تنجح الطرق الحالية المستندة إلى الشبكات العصبية التلافيفية (CNN) في تحقيق نتائج مرئية مرضية، إلا أنها تعاني من سرعة استدلال بطيئة بسبب هياكلها الثقيلة. نقترح حل هذه المشكلة باستخدام محول الزمان والمكان الذي يدمج بشكل طبيعي وحدات الترميز الفائق المكاني والزماني في نموذج واحد. على عكس طرق CNN، لا نستخدم صراحة كتل بناء منفصلة للاستكمال الزمني والترميز الفائق المكاني؛ بدلاً من ذلك، نستخدم فقط هيكل محول متكامل من النهاية إلى النهاية. تحديداً، يتم بناء قاموس قابل لإعادة الاستخدام بواسطة المشفّرات اعتمادًا على الإطارات المدخلة ذات معدل الإطارات المنخفض والدقة المنخفضة، والذي يتم استخدامه بعد ذلك في جزء المفكّك لتركيب الإطارات ذات معدل الإطارات العالي والدقة العالية. بالمقارنة مع أحدث شبكة TMNet \cite{xu2021temporal}، فإن شبكتنا أصغر بنسبة 60٪ (4.5 مليون مقابل 12.3 مليون معلمة) وأسرع بنسبة 80٪ (26.2 إطارًا في الثانية مقابل 14.3 إطارًا في الثانية على إطارات بحجم $720\times576$) دون التضحية بأداء كبير. يمكن الحصول على الكود المصدر من https://github.com/llmpass/RSTT.