PHNNs: شبكات عصبية خفيفة الوزن من خلال التحويلات التلافيفية الزائفة المُعامَلة

أثبتت الشبكات العصبية الزائدة التعقيد (Hypercomplex Neural Networks) قدرتها على تقليل العدد الكلي للمعاملات مع ضمان أداءً متميزًا من خلال الاستفادة من خصائص الجبر كليفلورد (Clifford algebras). في الآونة الأخيرة، تم تحسين طبقات التحويل الخطي الزائدة التعقيد بشكل أكبر من خلال دمج حاصل الضرب الكرونيكري (Kronecker product) المُعامل المُعلَّم بشكل فعّال. في هذه الورقة، نُعرّف تعميم المعاملات لطبقات التحويل التكاملي الزائدة التعقيد، ونقدّم عائلة من الشبكات العصبية الزائدة التعقيد المُعاملة (PHNNs) التي تتميز بالخفّة والكفاءة في النماذج الكبيرة. تعتمد طريقة عملنا على استخلاص قواعد التحويل وتنظيم الفلاتر مباشرة من البيانات، دون الحاجة إلى هيكل مُحدّد مسبقًا وثابتًا. تُظهر PHNNs مرونة عالية في التشغيل ضمن أي مجال مُعرّف أو مُعدّل من قبل المستخدم، سواء كان أحادي البعد (1D) أو متعدد الأبعاد ($n$D)، بغض النظر عما إذا كانت قواعد الجبر مُحددة مسبقًا أم لا. تتيح هذه المرونة معالجة المدخلات متعددة الأبعاد في مجالها الطبيعي دون الحاجة إلى إضافة أبعاد إضافية، على عكس ما يُستخدم في الشبكات العصبية ذات الرباعيات (Quaternion Neural Networks) عند التعامل مع المدخلات ثلاثية الأبعاد مثل الصور الملونة. نتيجة لذلك، تعمل العائلة المقترحة من PHNNs بعدد معاملات حرة يعادل $1/n$ من عدد المعاملات الحرة في نموذجها المقابل في المجال الحقيقي. نُظهر مرونة هذا النهج عبر تطبيقات متعددة من خلال إجراء تجارب على مجموعة متنوعة من مجموعات بيانات الصور، وكذلك بيانات الصوت، حيث تتفوّق طريقة عملنا على النماذج الحقيقية (real-valued) والرباعية (quaternion-valued). يُمكن الوصول إلى الكود الكامل عبر الرابط التالي: https://github.com/eleGAN23/HyperNets.