تعقب مستهدف مع انتباه السياق طويل المدى

معظم المتعقبات العميقة لا تزال تتبع إرشادات النماذج السامية (Siamese) وتستخدم قالبًا يحتوي فقط على الهدف دون أي معلومات سياقية، مما يجعل من الصعب على المتعقب التعامل مع التغيرات الكبيرة في المظهر، والحركة السريعة للهدف، وجذب الأشياء المشابهة. لحل هذه المشكلة، نقترح وحدة انتباه السياق طويل الأمد (LCA) التي يمكنها القيام بدمج معلومات واسع بين الهدف والسياق من الإطارات طويلة الأمد، وحساب ارتباط الهدف بينما تعزز خصائصه. المعلومات السياقية الكاملة تحتوي على موقع الهدف والحالة المحيطة به. تستخدم LCA الحالة السابقة للهدف لاستبعاد تأثير الأشياء المشابهة والخلفيات المعقدة، وبالتالي تحديد موقع الهدف بدقة وتمكين المتعقب من الحصول على متانة أعلى ودقة انحدار. من خلال دمج وحدة LCA في Transformer، نبني متعقبًا قويًا عبر الإنترنت يتميز بعمود فقري يدرك الهدف، والذي نطلق عليه TATrack. بالإضافة إلى ذلك، نقترح خوارزمية تحديث عبر الإنترنت ديناميكية تعتمد على ثقة التصنيف للمعلومات التاريخية دون زيادة العبء الحسابي. حقق متعقبنا أداءً رائدًا في عدة مقاييس، حيث بلغت نسبة AUC 71.1٪ ونسبة NP 89.3٪ ونسبة AO 73.0٪ على LaSOT وTrackingNet وGOT-10k. الرمز والموديلات المدربة متاحة على https://github.com/hekaijie123/TATrack.请注意,这里有一些术语的翻译需要特别说明:- "siamese paradigms" 翻译为 "النماذج السامية",这是在阿拉伯语中常用的翻译。- "long-term context attention (LCA)" 翻译为 "وحدة انتباه السياق طويل الأمد (LCA)",以保持专业性和信息完整性。- "Transformer" 翻译为 "Transformer",这是一个专有名词,通常保留英文形式。- "target-aware backbone" 翻译为 "عمود فقري يدرك الهدف",以保持句子的流畅性和专业性。- "AUC", "NP", 和 "AO" 是常见的性能指标缩写,在阿拉伯语中通常保留英文形式。希望这些翻译能符合您的要求。如果有任何进一步的修改或调整,请随时告知。