الشبكات العصبية شبه الدورية

الشبكات العصبية التكرارية هي أداة قوية لنمذجة البيانات المتتابعة، ولكن اعتماد حساب كل خطوة زمنية على ناتج الخطوة الزمنية السابقة يحد من التوازي ويجعل الشبكات العصبية التكرارية غير عملية للتواليات الطويلة جدًا. في هذا البحث، نقدم الشبكات العصبية شبه التكرارية (Quasi-Recurrent Neural Networks - QRNNs)، وهي طريقة لنمذجة البيانات المتتابعة تتبادل بين طبقات التفتيش (Convolutional Layers) التي تطبق بالتوازي عبر الخطوات الزمنية، ودالة تجميع متكررة بسيطة تطبق بالتوازي عبر القنوات. رغم عدم وجود طبقات متكررة قابلة للتدريب، فإن الشبكات العصبية شبه التكرارية المكدسة لديها دقة تنبؤ أفضل من الشبكات العصبية ذات الذاكرة طويلة الأجل (Long Short-Term Memory - LSTM) المكدسة ذات الحجم الخفي نفسه. بسبب زيادة درجة التوازي، تكون هذه الشبكات أسرع بمقدار يصل إلى 16 مرة أثناء التدريب والاختبار. تُظهر التجارب التي أجريت على نمذجة اللغة وتصنيف المشاعر والترجمة الآلية على مستوى الحروف هذه المزايا وتؤكد إمكانية استخدام الشبكات العصبية شبه التكرارية كوحدة بنائية أساسية لمجموعة متنوعة من المهام المتتابعة.