الموسوعة
لقد جمعنا مئات المدخلات ذات الصلة لمساعدتك على فهم "الذكاء الاصطناعي"
لغز كاريل هو مجموعة من المشاكل التي تتضمن التحكم في تصرفات الروبوت في بيئة محاكاة من خلال التعليمات.
الوضع الأمامي الكامل (FFM) هو أسلوب لتدريب الشبكات العصبية البصرية. تم اقتراحه من قبل فريق البحث الأكاديمي داي تشيونغهاي والأستاذ فانغ لو من جامعة تسينغهوا في عام 2024. الورقة ذات الصلة هي "قطار الوضع الأمامي بالكامل [...]
لعبة Busy Beavers هي مشكلة نظرية في علوم الكمبيوتر اقترحها عالم الرياضيات تيبور رادو في عام 1962.
مبدأ عمل RNN هو تخزين معلومات خطوة الوقت السابقة من خلال حالة الطبقة المخفية، بحيث يعتمد خرج الشبكة على المدخلات الحالية والحالة السابقة.
تحل ResNet بشكل فعال مشاكل التلاشي التدريجي والانفجار التدريجي التي تحدث مع زيادة عمق الشبكة عن طريق إضافة اتصالات متبقية في الشبكة.
آدم هي خوارزمية لتحسين التدرج من الدرجة الأولى، وهي مناسبة بشكل خاص للتعامل مع مشاكل التحسين باستخدام البيانات والمعلمات واسعة النطاق.
التكنولوجيا الأساسية لنموذج GPT هي بنية المحول، والتي تلتقط المعلومات السياقية بشكل فعال من خلال آلية الاهتمام الذاتي.
مبدأ التردد، أو مبدأ F باختصار، هو مفهوم مهم في مجال التعلم العميق. يصف الخاصية التي تميل الشبكات العصبية العميقة (DNNs) إلى تكييف الوظيفة المستهدفة من التردد المنخفض إلى التردد العالي أثناء التدريب. تم تأسيس هذا المبدأ من قبل جامعة شنغهاي جياو تونغ […]
يصف تجميع المعلمات الظاهرة التي تشير إلى أنه أثناء عملية تدريب الشبكة العصبية، تميل معلمات النموذج إلى التجمع نحو قيم أو اتجاهات محددة.
التعقيد الحلقي هو مقياس برمجي يستخدم لقياس تعقيد البرنامج.
الفكرة الأساسية لـ Dropout هي التخلص بشكل عشوائي (إزالة مؤقتة) من بعض الخلايا العصبية في الشبكة واتصالاتها أثناء عملية التدريب لمنع النموذج من الإفراط في التجهيز.
شبكات الاهتمام بالرسم البياني (GATs) هي نوع من الشبكات العصبية المصممة للبيانات المنظمة على شكل رسم بياني. تم اقتراحها من قبل بيتر فيليكوفيتش وزملائه في عام 2017. الورقة ذات الصلة هي "شبكات انتباه الرسم البياني (GATs)".
شبكات تمرير الرسائل العصبية (MPNN) عبارة عن إطار عمل للشبكات العصبية لمعالجة البيانات المنظمة على شكل رسوم بيانية. وقد اقترحه جيلمر وآخرون. في عام 2017. الورقة ذات الصلة هي "الشبكة العصبية [...]
شبكات الرسم البياني التلافيفية (GCN)، نشر كيبف وويلينج ورقة بحثية بعنوان "التصنيف شبه المشرف" في مؤتمر ICLR لعام 2017.
الوحدة المتكررة المسورة (GRU) هي أحد أشكال الشبكة العصبية المتكررة (RNN) التي اقترحها تشو وآخرون. في عام 2014. الورقة ذات الصلة هي "التقييم التجريبي للبوابة [...]
AlexNet هي شبكة عصبية ملتوية عميقة (CNN) اقترحها Alex Krizhevsky و Ilya Sutskever و Geoffrey Hinton في عام 2012 وتم استخدامها في مسابقة تصنيف الصور ImageNet في ذلك العام.
شجرة قرار CART هي خوارزمية شجرة قرار يمكن استخدامها لمهام التصنيف والانحدار.
Gradient Boosting عبارة عن خوارزمية تعلم جماعي تعمل على بناء نموذج تنبؤ قوي من خلال الجمع بين نماذج تنبؤ ضعيفة متعددة (عادةً أشجار القرار).
LeNet-5 هو عمل رائد في مجال التعلم العميق والشبكات العصبية التلافيفية، والذي وضع الأساس للعديد من المفاهيم الرئيسية في التعلم العميق الحديث، مثل الطبقات التلافيفية، وطبقات التجميع، والطبقات المتصلة بالكامل.
تركز أسئلة التأهيل على كيفية تحديد جميع الشروط أو العوامل المطلوبة لتنفيذ إجراء أو حدث بنجاح في بيئة متغيرة.
يقترح ReAct نموذجًا عامًا يجمع بين التقدم في التفكير والعمل لتمكين نماذج اللغة من حل مجموعة متنوعة من مهام التفكير اللغوي واتخاذ القرار.
Pre-training Once هو إطار عمل للتدريب الذاتي الإشراف يتكون من ثلاثة فروع ويقدم فروعًا مرنة للطلاب ويقوم بأخذ عينات عشوائية من الشبكات الفرعية للتدريب في كل خطوة من خطوات ما قبل التدريب.
FlexAttention عبارة عن آلية انتباه مرنة مصممة لتحسين كفاءة نماذج الرؤية واللغة عالية الدقة.
FlashAttention عبارة عن خوارزمية انتباه فعالة وصديقة للذاكرة.