HyperAIHyperAI

Command Palette

Search for a command to run...

مُحسِّن النظَر إلى الأمام: خطوة واحدة للخلف بعد كل k خطوات للأمام

Michael R. Zhang; James Lucas; Geoffrey Hinton; Jimmy Ba

الملخص

الغالبية العظمى من الشبكات العصبية العميقة الناجحة يتم تدريبها باستخدام نسخ متنوعة من خوارزميات التدرج العشوائي المتناقص (SGD). المحاولات الحديثة لتحسين SGD يمكن تصنيفها بشكل عام إلى طريقتين: (1) خطط معدل التعلم التكيفية، مثل AdaGrad وAdam، و(2) الخطط المتسارعة، مثل زخم الكرة الثقيلة وزخم Nesterov. في هذا البحث، نقترح خوارزمية تحسين جديدة تسمى Lookahead، والتي تكون متعامدة مع هذه الأساليب السابقة وتقوم بتحديث مجموعتين من الأوزان بشكل متكرر. بشكل حدسي، تقوم الخوارزمية باختيار اتجاه البحث عن طريق النظر إلى الأمام في سلسلة الأوزان السريعة التي يولدتها مُحسّن آخر. نوضح أن Lookahead تحسن استقرار التعلم وتقلل من تباين مُحسّنها الداخلي بأعباء حسابية وذاكرة قليلة جداً. نثبت بالتجربة أن Lookahead يمكن أن تحسن بشكل كبير أداء SGD وAdam، حتى مع إعدادات المعلمات الأولية الافتراضية على ImageNet وCIFAR-10/100 والترجمة الآلية للشبكات العصبية ومجموعة بيانات Penn Treebank.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
مُحسِّن النظَر إلى الأمام: خطوة واحدة للخلف بعد كل k خطوات للأمام | مستندات | HyperAI