HyperAIHyperAI
منذ 17 أيام

مِكْسْمُو: خلط مدخلات متعددة لإخراجات متعددة من خلال شبكات فرعية عميقة

Alexandre Rame, Remy Sun, Matthieu Cord
مِكْسْمُو: خلط مدخلات متعددة لإخراجات متعددة من خلال شبكات فرعية عميقة
الملخص

تم تحقيق تجميع الشبكات العميقة "مجانًا" مؤخرًا من خلال تدريب شبكة فرعية متنوعة ضمن شبكة أساسية واحدة في نفس الوقت. الفكرة الأساسية أثناء التدريب هي أن كل شبكة فرعية تتعلم تصنيف أحد المدخلات المتعددة التي تُقدَّم في نفس الوقت. ومع ذلك، لم تُدرس حتى الآن المسألة المتعلقة بأفضل طريقة لدمج هذه المدخلات المتعددة. في هذه الورقة، نقدّم MixMo، وهي إطار عمل جديد معمّم لتعلم الشبكات العميقة الفرعية متعددة المدخلات ومتعددة المخرجات. يكمن دافعنا الرئيسي في استبدال عملية الجمع غير المثلى المُختبئة في النماذج السابقة بآلية خلط أكثر ملاءمة. ولتحقيق ذلك، استلمنا الإلهام من تقنيات تكبير البيانات الناجحة التي تعتمد على خلط العينات. ونُظهر أن خلط الميزات ثنائيًا — وبخاصة باستخدام مستطيلات من تقنية CutMix — يُحسّن الأداء من خلال جعل الشبكات الفرعية أقوى وأكثر تنوعًا. ونحقق تحسينًا على أحدث النتائج في تصنيف الصور على مجموعتي بيانات CIFAR-100 وTiny ImageNet. كما تتفوّق نماذجنا البسيطة التنفيذ على النماذج العميقة المُعزّزة بالبيانات، دون تحميل إضافي أثناء الاستنتاج أو استهلاك الذاكرة. وبما أننا نعمل على مستوى الميزات، ونستفيد بشكل أفضل من قدرة الشبكات الكبيرة على التعبير، نفتح بذلك مسارًا بحثيًا جديدًا مكملًا للدراسات السابقة.

مِكْسْمُو: خلط مدخلات متعددة لإخراجات متعددة من خلال شبكات فرعية عميقة | أحدث الأوراق البحثية | HyperAI