
يستكشف هذا العمل الشبكات الفائقة (hypernetworks): نهج يستخدم شبكة واحدة، تُعرف أيضًا بالشبكة الفائقة، لتوليد الأوزان لشبكة أخرى. توفر الشبكات الفائقة مستوى من التجريد مشابه لما يوجد في الطبيعة: العلاقة بين الجينوتايب (genotype) - وهو الشبكة الفائقة - والفيونتايب (phenotype) - وهو الشبكة الرئيسية. رغم أنها تذكر أيضًا بـ HyperNEAT في التطور، فإن شبكاتنا الفائقة يتم تدريبها بشكل شامل باستخدام الانتشار العكسي (backpropagation)، وبالتالي فهي غالبًا أسرع. يركز هذا العمل على جعل الشبكات الفائقة مفيدة للشبكات العصبية التلافيفية العميقة والشبكات المتكررة طويلة الأمد، حيث يمكن اعتبار الشبكات الفائقة شكلاً مرنًا من تقاسم الأوزان عبر الطبقات. النتيجة الرئيسية لهذا العمل هي أن الشبكات الفائقة يمكنها توليد أوزان غير مشتركة للـ LSTM وتحقيق نتائج قريبة من أفضل النتائج الحالية في مجموعة متنوعة من مهام نمذجة التسلسلات، بما في ذلك نمذجة اللغة على مستوى الحروف، وإنشاء الكتابة اليدوية، والترجمة الآلية العصبية، مما يتحدى نموذج تقاسم الأوزان للشبكات المتكررة. كما تظهر نتائجنا أن تطبيق الشبكات الفائقة على الشبكات التلافيفية لا يزال يحقق نتائج محترمة في مهام التعرف على الصور مقارنة بنماذج الأساس الرائدة بينما يتطلب عددًا أقل من المعلمات القابلة للتعلم.