HyperAIHyperAI

Command Palette

Search for a command to run...

تعلّم شبكة عصبية لصورة ماندلبروت: كيف تُحول الميزات التربيعية فورية إلى تفاصيل فراكتالية حادة

يُعدّ مجموعة ماندلبروت من أجمل الكائنات الرياضية، كونها فركتال يُظهر تفاصيل لا نهائية عند التكبير، بغض النظر عن درجة التكبير. يُطرح سؤال مثير: ماذا لو طُلب من شبكة عصبية تعلّم هذه المجموعة؟ في الظاهر، يبدو هذا مُستبعدًا، لأن المجموعة محددة تمامًا، ولا تحتوي على بيانات عشوائية أو قواعد مخفية. لكن بالضبط هذه البساطة تجعلها مختبرًا مثاليًا لدراسة كيفية تمثيل الشبكات العصبية للدوال المعقدة. لتحويل المجموعة إلى مشكلة تعلّم، يُحوَّل التصنيف الثنائي (داخل/خارج) إلى مسألة انحدار مستمر باستخدام "الزمن الهروب المُعَدّل" (smooth escape-time). بدلًا من توقع صفر أو واحد، تُدرَّب الشبكة على توقع قيمة مستمرة تمثل متى تهرب التسلسل التكراري، مع تطبيق مقياس لوغاريتمي لتنعيم التوزيع وتمييز التفاصيل الدقيقة. لتحسين كفاءة التدريب، تُستخدم استراتيجية عينة مُركّزة على الحدود، حيث تُولَّد نقاط أكثر في النطاقات التي تُظهر تغيرات مفاجئة في القيمة (نطاق 0.35 إلى 0.95 من القيمة المُعَدّلة)، مما يضمن تدريب الشبكة على أصعب المناطق. النموذج الأساسي هو شبكة عصبية متعددة الطبقات (MLP) عميقة ومتسلسلة (Residual MLP) تُدخل إليها الإحداثيات الديكارتية مباشرة. النتيجة: تُظهر الشبكة الشكل العام للمجموعة، لكن التفاصيل الدقيقة حول الحدود تكون ضبابية، والخيوط النحيفة تُهمل. السبب؟ "الانحياز الطيفي" (Spectral Bias) – تُعلّم الشبكات العصبية الدوال منخفضة التردد أولًا، وتحتاج إلى جهد كبير لتمثيل التغيرات السريعة أو التفاصيل الدقيقة. لحل هذه المشكلة، تُستخدم "الميزات الترددية الجاوسية" (Gaussian Fourier Features)، التي تُحول الإحداثيات إلى مساحة ترددية باستخدام دوال جيب وجيب التمام لاتجاهات عشوائية. هذا يُمكّن الشبكة من تمثيل الترددات العالية بسهولة. وعند تطبيق "ميزات ترددية متعددة المقياس" (Multi-Scale) بدرجات مختلفة من التردد (2.0، 6.0، 5.0)، تُصبح القدرة على التقاط التفاصيل على جميع المقياس ممكنة – وهو ما يتناسب تمامًا مع الطبيعة الذاتية التماثل (self-similar) للفراكتال. النتيجة: النموذج باستخدام الميزات الترددية يُظهر تطورًا تدريجيًا – من الهيكل العام إلى التفاصيل الدقيقة، مع تحسّن مستمر. في المقابل، النموذج الأساسي يُحَدّد بسرعة ويتوقف عن التحسّن. الاستنتاج: التحدي ليس في عمق الشبكة أو حجم البيانات أو خوارزمية التدريب، بل في تمثيل المدخلات. بتحويل الإحداثيات إلى مساحة ترددية، تُنقل جزء كبير من التعقيد إلى مساحة المدخلات، مما يُمكّن شبكة بسيطة من تمثيل دالة معقدة جدًا. هذه الفكرة تُمتد إلى مجالات متعددة مثل الرسومات الحاسوبية، التعلم المُوجّه بالفيزياء، وتحليل الإشارات، حيث يُعدّ اختيار تمثيل المدخلات عاملًا حاسمًا لجودة النتائج. كل الصور والرسوم المتحركة في المقال تم إنشاؤها مباشرة من مخرجات النماذج، دون استخدام أي أدوات خارجية.

الروابط ذات الصلة

تعلّم شبكة عصبية لصورة ماندلبروت: كيف تُحول الميزات التربيعية فورية إلى تفاصيل فراكتالية حادة | القصص الشائعة | HyperAI