HyperAI

انتشار الخطأ المتراكم

الانتشار العكسي للخطأ المتراكمالخوارزمية هي خوارزمية شبكة عصبية ومتغير من خوارزمية انتشار الخطأ العكسي. يعتمد على قاعدة التحديث لتقليل الخطأ التراكمي ويضبط المعلمات في اتجاه التدرج السلبي للهدف. الهدف هو تقليل خطأ التدريب. ويُطلق عليه أيضًا اسم "خوارزمية الانتشار الخلفي". الشبكة العصبية متعددة الطبقات ذات التغذية الأمامية والتي تم تدريبها باستخدام هذه الخوارزمية تسمى "شبكة الانتشار الخلفي".

خطأ في خوارزمية الانتشار العكسي (BP)

تستخدم خوارزمية انتشار الخطأ العكسي الشبكة العصبية الأمامية لحساب خطأ التدريب، ثم تستخدم خطأ التدريب للتأثير على الخلايا العصبية في الطبقة المخفية، وبالتالي ضبط أوزان الاتصال وعتبة كل خلية عصبية، ومن خلال التحديث المستمر، يتم تقليل خطأ التدريب.

حاليًا، يعتمد معظم تدريب الشبكات العصبية على خوارزمية BP، والتي يمكن استخدامها ليس فقط للشبكات العصبية متعددة الطبقات ذات التغذية الأمامية، ولكن أيضًا لتدريب الشبكات العصبية المتكررة، وما إلى ذلك. ومع ذلك، يشير مصطلح "شبكة BP" عمومًا إلى شبكة عصبية متعددة الطبقات ذات تغذية أمامية مُدربة باستخدام خوارزمية BP.

تطبيق

بالنسبة لكل مثال تدريبي، تقوم الخوارزمية بتنفيذ العمليات التالية:

  • أولاً، يتم توفير مثال الإدخال إلى خلايا طبقة الإدخال، ثم يتم تمرير الإشارة للأمام طبقة تلو الأخرى حتى تنتج طبقة الإخراج النتيجة؛
  • ثم يتم حساب خطأ طبقة الإخراج ثم نشره مرة أخرى إلى الخلايا العصبية في الطبقة المخفية؛
  • أخيرًا، يتم ضبط أوزان الاتصال والعتبات وفقًا لأخطاء الخلايا العصبية في الطبقة المخفية.

تستمر هذه العملية التكرارية حتى يتم الوصول إلى حالة توقف معينة.

الشبكة العصبية التغذية الأمامية (FP)

يمكن اعتبار الشبكة العصبية التغذية الأمامية بمثابة مزيج من الانحدارات اللوجستية المتعددة، إلا أنه يمكن الحصول على النتائج مباشرة من خلال الخلايا العصبية ذات الطبقة المخفية. إن دالة التكلفة الخاصة بها تشبه الدالة اللوجستية، إلا أنها تحتاج إلى الجمع بين فئات مختلفة.