HyperAIHyperAI
منذ 17 أيام

MLP-Mixer: معمارية شاملة تعتمد على MLP للرؤية

Ilya Tolstikhin, Neil Houlsby, Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Thomas Unterthiner, Jessica Yung, Andreas Steiner, Daniel Keysers, Jakob Uszkoreit, Mario Lucic, Alexey Dosovitskiy
MLP-Mixer: معمارية شاملة تعتمد على MLP للرؤية
الملخص

الشبكات العصبية التلافيفية (CNNs) هي النموذج المفضل في مجال الرؤية الحاسوبية. في الآونة الأخيرة، أصبحت الشبكات القائمة على الانتباه، مثل نموذج Vision Transformer، شائعة أيضًا. في هذه الورقة، نُظهر أن بينما تكون التلافيف (convolutions) والانتباه كلاهما كافيَين لتحقيق أداء جيد، فإن كليهما ليس ضروريَّين. نقدّم نموذج MLP-Mixer، وهو معمارية تعتمد حصريًا على المُقدّرات متعددة الطبقات (MLPs). يحتوي MLP-Mixer على نوعين من الطبقات: الأول يُطبّق MLPs بشكل مستقل على شرائح الصورة (أي "مُزج" الميزات حسب الموقع)، والثاني يُطبّق MLPs عبر الشُرائح (أي "مُزج" المعلومات المكانية). عند تدريبه على مجموعات بيانات كبيرة، أو باستخدام تقنيات تنظيم حديثة، يحقق MLP-Mixer أداءً تنافسيًا في معايير تصنيف الصور، مع تكاليف ما قبل التدريب والاستنتاج مماثلة لنموذج الحالة المتطورة (state-of-the-art). نأمل أن تُشعل هذه النتائج أبحاثًا إضافية تتجاوز نطاق الشبكات العصبية التلافيفية والمحولات (Transformers) المُتَّقدَمة بالفعل.

MLP-Mixer: معمارية شاملة تعتمد على MLP للرؤية | أحدث الأوراق البحثية | HyperAI