HyperAIHyperAI

Command Palette

Search for a command to run...

صورة ترانسفورمر

Niki Parmar; Ashish Vaswani; Jakob Uszkoreit; Łukasz Kaiser; Noam Shazeer; Alexander Ku; Dustin Tran

الملخص

تم نجاحًا تحويل إنشاء الصور إلى مشكلة توليد أو تحويل متتالية ذاتية الانحدار. وقد أظهرت الدراسات الحديثة أن انتباه الذات (self-attention) هو طريقة فعالة لنمذجة التسلسلات النصية. في هذا البحث، نعمم معمارية نموذج مقترح حديثًا تعتمد على انتباه الذات، وهي المُحَوِّل (Transformer)، إلى صياغة نمذجة متتالية لإنشاء الصور مع احتمال قابل للحساب. من خلال تقييد آلية انتباه الذات على الأحياء المحلية، نزيد بشكل كبير حجم الصور التي يمكن للنموذج معالجتها في الممارسة العملية، رغم الحفاظ على مجالات استقبال أكبر بكثير لكل طبقة من الشبكات العصبية التلافيفية التقليدية. بينما تكون الفكرة بسيطة من الناحية المفهومية، فإن نماذجنا الإنشائية تتفوق بشكل كبير على أفضل ما تم تحقيقه حتى الآن في إنشاء الصور على ImageNet، حيث تحسيننا لأفضل قيمة سجل الاحتمال السالبة المنشورة على ImageNet من 3.83 إلى 3.77. كما قمنا بتقديم نتائج حول زيادة دقة الصور بمعامل تكبير كبير، باستخدام تكوين مُشفِّر-مُفكِّك (encoder-decoder) لمعماريتنا. وفي دراسة تقييم بشرية، وجدنا أن الصور التي تم إنشاؤها بواسطة نموذج زيادة الدقة لدينا تنطلي على المشاهدين البشريين ثلاث مرات أكثر مما كانت عليه أفضل ما تم تحقيقه حتى الآن.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
صورة ترانسفورمر | مستندات | HyperAI