HyperAIHyperAI

Command Palette

Search for a command to run...

التدرجات القابلة للتوسع لمعادلات التفاضل العشوائية

Xuechen Li Ting-Kam Leonard Wong Ricky T. Q. Chen David Duvenaud

الملخص

تحسب طريقة الحساسية المترافقة بشكل قابل للتوسع المشتقات (الGradient) لحلول المعادلات التفاضلية العادية. ونُعمّق هذه الطريقة لتشمل المعادلات التفاضلية العشوائية، مما يسمح بحساب المشتقات بكفاءة زمنية وذاكرة ثابتة، باستخدام حلول عدّادية ذات ترتيب عالٍ وقابلة للتكيف. وتحديدًا، نُشتق معادلة تفاضلية عشوائية تكون حلها هو المشتقة، ونُقدّم خوارزمية فعّالة من حيث الذاكرة لتخزين البيانات العشوائية (الضوضاء)، ونُحدد الشروط التي تضمن تقارب الحلول العددية. علاوةً على ذلك، ندمج طريقتنا مع الاستدلال التبايني العشوائي القائم على المشتقات (gradient-based stochastic variational inference) لمعادلات تفاضلية عشوائية ذات متغيرات مخفية. ونُطبّق طريقتنا لتناسب ديناميات عشوائية معرفة بشبكات عصبية، ونُحقّق أداءً تنافسيًا على مجموعة بيانات مسح حركي بـ 50 بعدًا.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp