
حققت الشبكات العصبية المتكررة نجاحًا كبيرًا في العديد من مهام معالجة اللغة الطبيعية (NLP). ومع ذلك، فإنها تواجه صعوبة في التوازي بسبب الهيكل المتكرر، مما يجعل تدريب الشبكات العصبية المتكررة يستغرق وقتًا طويلًا. في هذا البحث، نقدم الشبكات العصبية المتكررة المجزأة (SRNNs)، والتي يمكن توازيها عن طريق تقسيم التسلسلات إلى العديد من التسلسلات الفرعية. تتمتع الشبكات العصبية المتكررة المجزأة بقدرة الحصول على معلومات عالية المستوى عبر طبقات متعددة باستخدام عدد قليل من المعلمات الإضافية. نثبت أن الشبكة العصبية المتكررة القياسية هي حالة خاصة من الشبكة العصبية المتكررة المجزأة عند استخدام وظائف التنشيط الخطية. دون تغيير الوحدات المتكررة، تكون الشبكات العصبية المتكررة المجزأة أسرع 136 مرة من الشبكات العصبية المتكررة القياسية ويمكن أن تكون أسرع حتى عند تدريب تسلسلات أطول. أظهرت التجارب على ستة مجموعات بيانات كبيرة لتحليل المشاعر أن الشبكات العصبية المتكررة المجزأة حققت أداءً أفضل من الشبكات العصبية المتكررة القياسية.