HyperAIHyperAI

Command Palette

Search for a command to run...

الوحدات المتكررة المتعامدة ذات البوابة: حول تعلم النسيان

Li Jing Caglar Gulcehre John Peurifoy Yichen Shen Max Tegmark Marin Soljačić Yoshua Bengio

الملخص

نقدم نموذجًا جديدًا يعتمد على الشبكات العصبية التكرارية (RNN) يجمع بين قدرة الشبكات العصبية التكرارية الوحدوية على الحفظ وقدرة الشبكات العصبية التكرارية ذات الأبواب على نسيان المعلومات الزائدة أو غير ذات الصلة بفعالية في ذاكرتها. نحقق هذا من خلال توسيع الشبكات العصبية التكرارية الوحدوية بإضافة آلية الأبواب. يتمكن نموذجنا من تجاوز أداء LSTM، GRU والشبكات العصبية التكرارية الوحدوية في عدة مهام معيارية تعتمد على الارتباطات طويلة المدى. لقد أظهرنا تجريبيًا أن الشبكات العصبية التكرارية العمودية/الوحدوية تفتقر إلى القدرة على النسيان، وكذلك قدرة GORU على حفظ الارتباطات طويلة المدى مع نسيان المعلومات غير ذات الصلة في الوقت نفسه. يلعب هذا دورًا مهمًا في الشبكات العصبية التكرارية. نقدم نتائج تنافسية بالإضافة إلى تحليل لنموذجنا في العديد من المهام الطبيعية المتسلسلة، بما في ذلك الإجابة على أسئلة bAbI، تنبؤ طيف الكلام في TIMIT، بنك شجرة بن (Penn TreeBank)، والمهام الصناعية التي تتضمن ارتباطات طويلة المدى مثل المهام الخوارزمية، وضع الأقواس، إزالة الضوضاء ونسخ البيانات.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp