HyperAI

انتشار الخطأ المتراكم

خوارزمية انتشار الخطأ التراكمي هي أحد أشكال خوارزمية انتشار الخطأ التراكمي، والتي تعتمد على قاعدة التحديث لتقليل الخطأ التراكمي.

خطأ في خوارزمية الانتشار العكسي (BP)

تستخدم خوارزمية انتشار الخطأ العكسي الشبكة العصبية الأمامية لحساب خطأ التدريب، ثم تستخدم خطأ التدريب للتأثير على الخلايا العصبية في الطبقة المخفية، وبالتالي ضبط أوزان الاتصال وعتبة كل خلية عصبية، ومن خلال التحديث المستمر، يتم تقليل خطأ التدريب.

حاليًا، يعتمد معظم تدريب الشبكات العصبية على خوارزمية BP، والتي يمكن استخدامها ليس فقط للشبكات العصبية متعددة الطبقات ذات التغذية الأمامية، ولكن أيضًا لتدريب الشبكات العصبية المتكررة، وما إلى ذلك. ومع ذلك، يشير مصطلح "شبكة BP" عمومًا إلى شبكة عصبية متعددة الطبقات ذات تغذية أمامية مُدربة باستخدام خوارزمية BP.

سير عمل خوارزمية BP

  1. يتم توفير مثال الإدخال إلى الخلية العصبية المدخلة، والتي تقوم بإرسال الإشارة طبقة تلو الأخرى حتى تنتج طبقة الإخراج النتيجة.
  2. احسب خطأ طبقة الإخراج ثم انشر الخطأ العكسي إلى الخلايا العصبية في الطبقة المخفية
  3. ضبط أوزان الاتصال والعتبات وفقًا لأخطاء الخلايا العصبية في الطبقة المخفية

الشبكة العصبية التغذية الأمامية (FP)

يمكن اعتبار الشبكة العصبية التغذية الأمامية بمثابة مزيج من الانحدارات اللوجستية المتعددة، إلا أنه يمكن الحصول على النتائج مباشرة من خلال الخلايا العصبية ذات الطبقة المخفية. إن دالة التكلفة الخاصة بها تشبه الدالة اللوجستية، إلا أنها تحتاج إلى الجمع بين فئات مختلفة.