HyperAIHyperAI
منذ 17 أيام

Transformer متكرر للعامة في استرجاع الصورة عالي الدقة

Zheng Chen, Yulun Zhang, Jinjin Gu, Linghe Kong, Xiaokang Yang
Transformer متكرر للعامة في استرجاع الصورة عالي الدقة
الملخص

أظهرت هياكل المُحَوِّل (Transformer) أداءً متميزًا في تحسين دقة الصور (SR). نظرًا لتعقيد الحساب التربيعي لانتباه الذات (SA) في المُحَوِّل، فإن الطرق الحالية تميل إلى استخدام انتباه الذات في مناطق محلية لتقليل التكاليف الحسابية. ومع ذلك، فإن التصميم المحلي يحد من استغلال السياق العالمي، وهو أمر بالغ الأهمية لاستعادة الصور بدقة. في هذا العمل، نقترح نموذج المُحَوِّل التعميمي التكراري (RGT) لتحسين دقة الصور، الذي يمكنه استيعاب المعلومات المكانية العالمية ويُعد مناسبًا للصور عالية الدقة. بشكل خاص، نقدم انتباه الذات التكراري-التعميمي (RG-SA). حيث يجمع هذا الانتباه المُدخلات بشكل تكراري في خرائط مميزة للسمات، ثم يستخدم الانتباه المتبادل لاستخراج المعلومات العالمية. وفي الوقت نفسه، يتم توسيع أبعاد القنوات في مصفوفات الانتباه (الاستعلام، والمفتاح، والقيمة) لتقليل التكرار في المجال القناتي. علاوة على ذلك، ندمج RG-SA مع انتباه الذات المحلي لتعزيز استغلال السياق العالمي، ونقترح طريقة التكامل المتكيف الهجين (HAI) لدمج الوحدات. تسمح HAI بالدمج المباشر والفعّال بين السمات على مستويات مختلفة (محلية أو عالمية). تُظهر التجارب الواسعة أن نموذج RGT يتفوق على أحدث الطرق المتميزة من حيث الجوانب الكمية والنوعية. يمكن الوصول إلى الشفرة والنماذج المدربة مسبقًا من خلال الرابط: https://github.com/zhengchen1999/RGT.