HyperAIHyperAI

Command Palette

Search for a command to run...

Transformer متكرر للعامة في استرجاع الصورة عالي الدقة

Zheng Chen Yulun Zhang Jinjin Gu Linghe Kong Xiaokang Yang

الملخص

أظهرت هياكل المُحَوِّل (Transformer) أداءً متميزًا في تحسين دقة الصور (SR). نظرًا لتعقيد الحساب التربيعي لانتباه الذات (SA) في المُحَوِّل، فإن الطرق الحالية تميل إلى استخدام انتباه الذات في مناطق محلية لتقليل التكاليف الحسابية. ومع ذلك، فإن التصميم المحلي يحد من استغلال السياق العالمي، وهو أمر بالغ الأهمية لاستعادة الصور بدقة. في هذا العمل، نقترح نموذج المُحَوِّل التعميمي التكراري (RGT) لتحسين دقة الصور، الذي يمكنه استيعاب المعلومات المكانية العالمية ويُعد مناسبًا للصور عالية الدقة. بشكل خاص، نقدم انتباه الذات التكراري-التعميمي (RG-SA). حيث يجمع هذا الانتباه المُدخلات بشكل تكراري في خرائط مميزة للسمات، ثم يستخدم الانتباه المتبادل لاستخراج المعلومات العالمية. وفي الوقت نفسه، يتم توسيع أبعاد القنوات في مصفوفات الانتباه (الاستعلام، والمفتاح، والقيمة) لتقليل التكرار في المجال القناتي. علاوة على ذلك، ندمج RG-SA مع انتباه الذات المحلي لتعزيز استغلال السياق العالمي، ونقترح طريقة التكامل المتكيف الهجين (HAI) لدمج الوحدات. تسمح HAI بالدمج المباشر والفعّال بين السمات على مستويات مختلفة (محلية أو عالمية). تُظهر التجارب الواسعة أن نموذج RGT يتفوق على أحدث الطرق المتميزة من حيث الجوانب الكمية والنوعية. يمكن الوصول إلى الشفرة والنماذج المدربة مسبقًا من خلال الرابط: https://github.com/zhengchen1999/RGT.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
Transformer متكرر للعامة في استرجاع الصورة عالي الدقة | مستندات | HyperAI