المحاذاة اللينة للمعلومات العالمية والمحلية لاسترجاع الصور والنصوص ذات النطاقات المتقاطعة في الاستشعار عن بعد
إن استرجاع الصور ذات الاستشعار عن بعد عبر الوسائط المتقاطعة (CMRSITR) هو مهمة صعبة تهدف إلى استرجاع صور استشعار عن بعد (RS) المستهدفة بناءً على وصف نصي. ومع ذلك، فإن الفجوة بين الوسائط النصية والصور الفضائية تمثل تحديًا كبيرًا. حيث تحتوي صور الاستشعار عن بعد على عدة أهداف وخلفيات معقدة، مما يستدعي استخراج المعلومات العالمية والمحليّة معًا (GaLR) لتحقيق أداء فعّال في استرجاع الصور عبر الوسائط المتقاطعة. تركز الطرق الحالية بشكل رئيسي على الميزات المحلية للصورة، بينما تتجاهل الميزات المحلية للنص وعلاقتها المقابلة. وتُطبّق هذه الطرق عادةً دمجًا بين الميزات العالمية والمحليّة للصورة، ثم محاذاة هذه الميزات مع الميزات النصية العالمية. لكنها تواجه صعوبات في التخلص من تأثير الخلفيات المزدحمة وقد تتجاهل الأهداف المهمة. لمعالجة هذه القيود، نقترح إطارًا جديدًا لاسترجاع الصور عبر الوسائط المتقاطعة يعتمد على بنية المُحَوِّل (Transformer)، ويستخدم محاذاة ناعمة للمعلومات العالمية والمحليّة (GLISA) لتعزيز أداء الاسترجاع. يضم إطارنا وحدة استخراج الصورة العالمية، التي تلتقط الميزات الدلالية العالمية للأزواج النصية-الصورية، وتمثّل بفعالية العلاقات بين الأهداف المتعددة في صور الاستشعار عن بعد. علاوةً على ذلك، نقدّم وحدة استخراج المعلومات المحلية التكيّفية (ALIE)، التي تستخرج بشكل تكيّفي ميزات محلية تمييزية من الصور الفضائية والنصوص معًا، وتحاذي المعلومات الدقيقة المقابلة. ولتقليل الغموض الدلالي الناتج عن محاذاة الميزات المحلية، صممنا وحدة محاذاة ناعمة للمعلومات المحلية (LISA). وقد حقق أسلوبنا نتائج رائدة في التقييمات المقارنة باستخدام مجموعتي بيانات علامة عامة لـ CMRSITR، حيث تفوق على الطرق التقليدية لاسترجاع الوسائط المتقاطعة بفارق كبير، وكذلك على الطرق المستندة إلى التدريب المسبق للغة والصورة التباينية (CLIP).