مُحْسِبٌ مَتَعَدِّدُ الْطَّبَقَات
Multilayer Perceptron (MLP) عبارة عن شبكة عصبية اصطناعية ذات تغذية أمامية تقوم بتعيين مجموعة من متجهات الإدخال إلى مجموعة من متجهات الإخراج. يمكن اعتباره رسمًا بيانيًا موجهًا يتكون من طبقات متعددة من العقد، كل منها متصل بشكل كامل بالطبقة التالية. باستثناء عقدة الإدخال، كل عقدة هي خلية عصبية (أو وحدة معالجة) ذات دالة تنشيط غير خطية. MLP هو تعميم للبيرسبترون، والذي يتغلب على ضعف البيرسبترون الذي يجعل من غير الممكن التعرف على البيانات غير القابلة للفصل خطيًا.
نشأ مفهوم الإدراك متعدد الطبقات كمفهوم محدد بعد تقديم خوارزمية الانتشار الخلفي، والتي تجعل من الممكن تدريب الشبكات متعددة الطبقات. تم وصف خوارزمية الانتشار الخلفي لأول مرة في الورقةتعلم التمثيلات عن طريق الأخطاء المنتشرة للخلفتم وصف خوارزمية الانتشار الخلفي بالتفصيل في ورقة بحثية عام 1986 بقلم ديفيد إي. روميلهارت، وجيفري إي. هينتون، ورونالد جيه. ويليامز، والتي توضح كيفية استخدامها لتدريب المدركات متعددة الطبقات.
على الرغم من وجود مفاهيم ونماذج أولية مبكرة للمدركات متعددة الطبقات من قبل، إلا أن هذه الورقة كانت وثيقة مهمة ربطت بشكل صريح بين خوارزمية الانتشار الخلفي وبنية الشبكة متعددة الطبقات وتم الاعتراف بها على نطاق واسع في مجال أبحاث الشبكات العصبية. قبل ذلك، لم تكن الشبكات متعددة الطبقات مستخدمة على نطاق واسع بسبب عدم وجود أساليب تدريب فعالة.