HyperAIHyperAI

Command Palette

Search for a command to run...

الترانسفورمرات تعمم ديبست وتستطيع التوسع إلى الرسوم البيانية والهيرغرافات

Jinwoo Kim; Saeyoon Oh; Seunghoon Hong

الملخص

نقدم تعميمًا لـ Transformers إلى بيانات ثابتة تحت التبديل من أي رتبة (المجموعات، والرسوم البيانية، والرسوم البيانية الفائقة). نبدأ بملاحظة أن الـ Transformers تعمم الـ DeepSets، أو شبكات MLP الثابتة تحت التبديل من الرتبة الأولى (مدخلات المجموعات). ثم، بناءً على شبكات MLP الثابتة تحت التبديل من الرتب الأعلى التي تم وصفها مؤخرًا، نوسع مفهوم الانتباه الذاتي إلى الرتب الأعلى ونقترح الـ Transformers من الرتب الأعلى للبيانات من الرتبة-kkk (k=2k=2k=2 للرسوم البيانية و k>2k>2k>2 للرسوم البيانية الفائقة). ومع ذلك، يتبين أن تعقيد الـ Transformers من الرتب الأعلى يكون مُحَدِّدًا بشكل كبير O(n2k)\mathcal{O}(n^{2k})O(n2k) بالنسبة لعدد العقد المدخلية nnn. لمعالجة هذه المشكلة، نقدم الـ Transformers النادرة من الرتب الأعلى والتي تكون تعقيدها تربيعيًا بالنسبة لعدد الحواف الفائقة المدخلية، ونتبنى نهج انتباه النواة لتقليل التعقيد إلى خطي. وبشكل خاص، نوضح أن الـ Transformers النادرة من الرتبة الثانية مع انتباه النواة تكون أكثر تعبيرية نظريًا من عمليات تمرير الرسائل بينما لديها تعقيد مقارب لها. حققت نماذجنا تحسينات أداء كبيرة على شبكات MLP الثابتة تحت التبديل وشبكات الجراف العصبية التي تقوم بتمرير الرسائل في مهام الانحدار الجرافي الكبيرة ومهمات التنبؤ بالمجموعة إلى (الجراف الفائق). يمكن الوصول إلى تنفيذنا عبر الرابط https://github.com/jw9730/hot.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp