الوحدات المتكررة المتعامدة ذات البوابة: حول تعلم النسيان

نقدم نموذجًا جديدًا يعتمد على الشبكات العصبية التكرارية (RNN) يجمع بين قدرة الشبكات العصبية التكرارية الوحدوية على الحفظ وقدرة الشبكات العصبية التكرارية ذات الأبواب على نسيان المعلومات الزائدة أو غير ذات الصلة بفعالية في ذاكرتها. نحقق هذا من خلال توسيع الشبكات العصبية التكرارية الوحدوية بإضافة آلية الأبواب. يتمكن نموذجنا من تجاوز أداء LSTM، GRU والشبكات العصبية التكرارية الوحدوية في عدة مهام معيارية تعتمد على الارتباطات طويلة المدى. لقد أظهرنا تجريبيًا أن الشبكات العصبية التكرارية العمودية/الوحدوية تفتقر إلى القدرة على النسيان، وكذلك قدرة GORU على حفظ الارتباطات طويلة المدى مع نسيان المعلومات غير ذات الصلة في الوقت نفسه. يلعب هذا دورًا مهمًا في الشبكات العصبية التكرارية. نقدم نتائج تنافسية بالإضافة إلى تحليل لنموذجنا في العديد من المهام الطبيعية المتسلسلة، بما في ذلك الإجابة على أسئلة bAbI، تنبؤ طيف الكلام في TIMIT، بنك شجرة بن (Penn TreeBank)، والمهام الصناعية التي تتضمن ارتباطات طويلة المدى مثل المهام الخوارزمية، وضع الأقواس، إزالة الضوضاء ونسخ البيانات.