HyperAIHyperAI

Command Palette

Search for a command to run...

هل تُحَوِّل الشبكات العميقة التماثلات عبر الفئات؟

Allan Zhou Fahim Tajwar Alexander Robey Tom Knowles George J. Pappas Hamed Hassani Chelsea Finn

الملخص

لتحقيق تعميم جيد، يجب أن تتعلم النماذج الفاصلة أن تكون غير حساسة تجاه التحولات العرضية التي لا تغيّر فئة المدخل. تتميز العديد من المشكلات بتحولات عرضية "غير متعلقة بالفئة" والتي تُطبّق بنفس الشكل على جميع الفئات، مثل تغير الإضاءة وتغيير الخلفية في تصنيف الصور. يمكن للشبكات العصبية تعلّم هذه التماثليات عند توفر بيانات كافية، لكن العديد من مجموعات البيانات الواقعية تعاني من عدم توازن شديد بين الفئات، وتحتوي على عدد قليل جدًا من الأمثلة لمعظم الفئات. ولذلك نطرح السؤال التالي: إلى أي مدى تُنقل التماثليات غير المُتعلقة بالفئة التي تُتعلم من الفئات الكبيرة إلى الفئات الصغيرة؟ من خلال تجارب دقيقة، لاحظنا أن التماثل تجاه التحولات غير المُتعلقة بالفئة يظل يعتمد بشكل كبير على حجم الفئة، حيث تكون الشبكات أقل تماثلًا بشكل ملحوظ في الفئات الصغيرة. ويظل هذا الناتج صحيحًا حتى عند استخدام تقنيات موازنة البيانات، مما يشير إلى نقل ضعيف للتماثليات بين الفئات. تُقدّم نتائجنا تفسيرًا واحدًا لسبب ضعف أداء النماذج في التعميم على التوزيعات غير المتوازنة والطويلة الذيل (long-tailed). بناءً على هذا التحليل، نُظهر كيف يمكن لنهج توليدي (Generative Approach) لتعلم التحولات العرضية أن يساعد في نقل التماثليات بين الفئات وتحسين الأداء في مجموعة من معايير تصنيف الصور غير المتوازنة. يُمكن الوصول إلى الشفرة المصدرية لتجاربنا من خلال الرابط التالي: https://github.com/AllanYangZhou/generative-invariance-transfer.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp