HyperAIHyperAI

Command Palette

Search for a command to run...

UnICORNN: نموذج متكرر لتعلم الارتباطات الزمنية الطويلة جداً

T. Konstantin Rusch Siddhartha Mishra

الملخص

تصميم الشبكات العصبية التكرارية (RNNs) لمعالجة المدخلات المتسلسلة بدقة مع الاعتماديات طويلة الأمد يمثل تحديًا كبيرًا بسبب مشكلة الانفجار والاختفاء للمنحنيات (الغراديانتس). لتجاوز هذا، نقترح هندسة جديدة للشبكات العصبية التكرارية تعتمد على تقسيم حافظ للهيكل لنظام هاملتوني من المعادلات التفاضلية العادية من الدرجة الثانية التي تُمثِّل شبكات المذبذبات. النتيجة هي أن الشبكة العصبية التكرارية تكون سريعة، قابلة للعكس (في الزمن)، فعالة في استخدام الذاكرة، ونستعرض حدودًا دقيقةً على منحنيات الحالة الخفية لإثبات تخفيف مشكلة الانفجار والاختفاء للمنحنيات. تم تقديم مجموعة من التجارب لإظهار أن الشبكة العصبية التكرارية المقترحة توفر أداءً متميزًا في مجموعة متنوعة من مهام التعلم ذات الاعتمadiات طويلة الأمد (جداً).


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp