Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
شبكة هوبفيلد هي شبكة عصبية متكررة تستخدم بشكل أساسي في حل مشاكل مثل الذاكرة الترابطية والتعرف على الأنماط.
يشير تقليل خطأ المكافأة إلى المشكلة في التعلم التعزيزي (RL) الناجمة عن عدم تطابق وظيفة المكافأة بشكل كامل مع الهدف الحقيقي للوكيل.
نظام التوصية التسلسلي هو نوع مهم من أنظمة التوصية، ومهمته الرئيسية هي التنبؤ بالسلوك التالي للمستخدم بناءً على تسلسل سلوك المستخدم التاريخي.
يعمل R-MFDN على تعزيز حساسية النموذج للمحتوى المزور من خلال دالة فقدان التعلم التبايني عبر الوسائط ودالة فقدان التعلم التبايني التي تعتمد على الهوية.
لغز كاريل هو مجموعة من المشاكل التي تتضمن التحكم في تصرفات الروبوت في بيئة محاكاة من خلال التعليمات.
الوضع الأمامي الكامل (FFM) هو أسلوب لتدريب الشبكات العصبية البصرية. تم اقتراحه من قبل فريق البحث الأكاديمي داي تشيونغهاي والأستاذ فانغ لو من جامعة تسينغهوا في عام 2024. الورقة ذات الصلة هي "قطار الوضع الأمامي بالكامل [...]
لعبة Busy Beavers هي مشكلة نظرية في علوم الكمبيوتر اقترحها عالم الرياضيات تيبور رادو في عام 1962.
مبدأ عمل RNN هو تخزين معلومات خطوة الوقت السابقة من خلال حالة الطبقة المخفية، بحيث يعتمد خرج الشبكة على المدخلات الحالية والحالة السابقة.
تحل ResNet بشكل فعال مشاكل التلاشي التدريجي والانفجار التدريجي التي تحدث مع زيادة عمق الشبكة عن طريق إضافة اتصالات متبقية في الشبكة.
آدم هي خوارزمية لتحسين التدرج من الدرجة الأولى، وهي مناسبة بشكل خاص للتعامل مع مشاكل التحسين باستخدام البيانات والمعلمات واسعة النطاق.
التكنولوجيا الأساسية لنموذج GPT هي بنية المحول، والتي تلتقط المعلومات السياقية بشكل فعال من خلال آلية الاهتمام الذاتي.
مبدأ التردد، أو مبدأ F باختصار، هو مفهوم مهم في مجال التعلم العميق. يصف الخاصية التي تميل الشبكات العصبية العميقة (DNNs) إلى تكييف الوظيفة المستهدفة من التردد المنخفض إلى التردد العالي أثناء التدريب. تم تأسيس هذا المبدأ من قبل جامعة شنغهاي جياو تونغ […]
يصف تجميع المعلمات الظاهرة التي تشير إلى أنه أثناء عملية تدريب الشبكة العصبية، تميل معلمات النموذج إلى التجمع نحو قيم أو اتجاهات محددة.
التعقيد الحلقي هو مقياس برمجي يستخدم لقياس تعقيد البرنامج.
الفكرة الأساسية لـ Dropout هي التخلص بشكل عشوائي (إزالة مؤقتة) من بعض الخلايا العصبية في الشبكة واتصالاتها أثناء عملية التدريب لمنع النموذج من الإفراط في التجهيز.
شبكات الاهتمام بالرسم البياني (GATs) هي نوع من الشبكات العصبية المصممة للبيانات المنظمة على شكل رسم بياني. تم اقتراحها من قبل بيتر فيليكوفيتش وزملائه في عام 2017. الورقة ذات الصلة هي "شبكات انتباه الرسم البياني (GATs)".
شبكات تمرير الرسائل العصبية (MPNN) عبارة عن إطار عمل للشبكات العصبية لمعالجة البيانات المنظمة على شكل رسوم بيانية. وقد اقترحه جيلمر وآخرون. في عام 2017. الورقة ذات الصلة هي "الشبكة العصبية [...]
شبكات الرسم البياني التلافيفية (GCN)، نشر كيبف وويلينج ورقة بحثية بعنوان "التصنيف شبه المشرف" في مؤتمر ICLR لعام 2017.
الوحدة المتكررة المسورة (GRU) هي أحد أشكال الشبكة العصبية المتكررة (RNN) التي اقترحها تشو وآخرون. في عام 2014. الورقة ذات الصلة هي "التقييم التجريبي للبوابة [...]
AlexNet هي شبكة عصبية ملتوية عميقة (CNN) اقترحها Alex Krizhevsky و Ilya Sutskever و Geoffrey Hinton في عام 2012 وتم استخدامها في مسابقة تصنيف الصور ImageNet في ذلك العام.
شجرة قرار CART هي خوارزمية شجرة قرار يمكن استخدامها لمهام التصنيف والانحدار.
Gradient Boosting عبارة عن خوارزمية تعلم جماعي تعمل على بناء نموذج تنبؤ قوي من خلال الجمع بين نماذج تنبؤ ضعيفة متعددة (عادةً أشجار القرار).
LeNet-5 هو عمل رائد في مجال التعلم العميق والشبكات العصبية التلافيفية، والذي وضع الأساس للعديد من المفاهيم الرئيسية في التعلم العميق الحديث، مثل الطبقات التلافيفية، وطبقات التجميع، والطبقات المتصلة بالكامل.
تركز أسئلة التأهيل على كيفية تحديد جميع الشروط أو العوامل المطلوبة لتنفيذ إجراء أو حدث بنجاح في بيئة متغيرة.
شبكة هوبفيلد هي شبكة عصبية متكررة تستخدم بشكل أساسي في حل مشاكل مثل الذاكرة الترابطية والتعرف على الأنماط.
يشير تقليل خطأ المكافأة إلى المشكلة في التعلم التعزيزي (RL) الناجمة عن عدم تطابق وظيفة المكافأة بشكل كامل مع الهدف الحقيقي للوكيل.
نظام التوصية التسلسلي هو نوع مهم من أنظمة التوصية، ومهمته الرئيسية هي التنبؤ بالسلوك التالي للمستخدم بناءً على تسلسل سلوك المستخدم التاريخي.
يعمل R-MFDN على تعزيز حساسية النموذج للمحتوى المزور من خلال دالة فقدان التعلم التبايني عبر الوسائط ودالة فقدان التعلم التبايني التي تعتمد على الهوية.
لغز كاريل هو مجموعة من المشاكل التي تتضمن التحكم في تصرفات الروبوت في بيئة محاكاة من خلال التعليمات.
الوضع الأمامي الكامل (FFM) هو أسلوب لتدريب الشبكات العصبية البصرية. تم اقتراحه من قبل فريق البحث الأكاديمي داي تشيونغهاي والأستاذ فانغ لو من جامعة تسينغهوا في عام 2024. الورقة ذات الصلة هي "قطار الوضع الأمامي بالكامل [...]
لعبة Busy Beavers هي مشكلة نظرية في علوم الكمبيوتر اقترحها عالم الرياضيات تيبور رادو في عام 1962.
مبدأ عمل RNN هو تخزين معلومات خطوة الوقت السابقة من خلال حالة الطبقة المخفية، بحيث يعتمد خرج الشبكة على المدخلات الحالية والحالة السابقة.
تحل ResNet بشكل فعال مشاكل التلاشي التدريجي والانفجار التدريجي التي تحدث مع زيادة عمق الشبكة عن طريق إضافة اتصالات متبقية في الشبكة.
آدم هي خوارزمية لتحسين التدرج من الدرجة الأولى، وهي مناسبة بشكل خاص للتعامل مع مشاكل التحسين باستخدام البيانات والمعلمات واسعة النطاق.
التكنولوجيا الأساسية لنموذج GPT هي بنية المحول، والتي تلتقط المعلومات السياقية بشكل فعال من خلال آلية الاهتمام الذاتي.
مبدأ التردد، أو مبدأ F باختصار، هو مفهوم مهم في مجال التعلم العميق. يصف الخاصية التي تميل الشبكات العصبية العميقة (DNNs) إلى تكييف الوظيفة المستهدفة من التردد المنخفض إلى التردد العالي أثناء التدريب. تم تأسيس هذا المبدأ من قبل جامعة شنغهاي جياو تونغ […]
يصف تجميع المعلمات الظاهرة التي تشير إلى أنه أثناء عملية تدريب الشبكة العصبية، تميل معلمات النموذج إلى التجمع نحو قيم أو اتجاهات محددة.
التعقيد الحلقي هو مقياس برمجي يستخدم لقياس تعقيد البرنامج.
الفكرة الأساسية لـ Dropout هي التخلص بشكل عشوائي (إزالة مؤقتة) من بعض الخلايا العصبية في الشبكة واتصالاتها أثناء عملية التدريب لمنع النموذج من الإفراط في التجهيز.
شبكات الاهتمام بالرسم البياني (GATs) هي نوع من الشبكات العصبية المصممة للبيانات المنظمة على شكل رسم بياني. تم اقتراحها من قبل بيتر فيليكوفيتش وزملائه في عام 2017. الورقة ذات الصلة هي "شبكات انتباه الرسم البياني (GATs)".
شبكات تمرير الرسائل العصبية (MPNN) عبارة عن إطار عمل للشبكات العصبية لمعالجة البيانات المنظمة على شكل رسوم بيانية. وقد اقترحه جيلمر وآخرون. في عام 2017. الورقة ذات الصلة هي "الشبكة العصبية [...]
شبكات الرسم البياني التلافيفية (GCN)، نشر كيبف وويلينج ورقة بحثية بعنوان "التصنيف شبه المشرف" في مؤتمر ICLR لعام 2017.
الوحدة المتكررة المسورة (GRU) هي أحد أشكال الشبكة العصبية المتكررة (RNN) التي اقترحها تشو وآخرون. في عام 2014. الورقة ذات الصلة هي "التقييم التجريبي للبوابة [...]
AlexNet هي شبكة عصبية ملتوية عميقة (CNN) اقترحها Alex Krizhevsky و Ilya Sutskever و Geoffrey Hinton في عام 2012 وتم استخدامها في مسابقة تصنيف الصور ImageNet في ذلك العام.
شجرة قرار CART هي خوارزمية شجرة قرار يمكن استخدامها لمهام التصنيف والانحدار.
Gradient Boosting عبارة عن خوارزمية تعلم جماعي تعمل على بناء نموذج تنبؤ قوي من خلال الجمع بين نماذج تنبؤ ضعيفة متعددة (عادةً أشجار القرار).
LeNet-5 هو عمل رائد في مجال التعلم العميق والشبكات العصبية التلافيفية، والذي وضع الأساس للعديد من المفاهيم الرئيسية في التعلم العميق الحديث، مثل الطبقات التلافيفية، وطبقات التجميع، والطبقات المتصلة بالكامل.
تركز أسئلة التأهيل على كيفية تحديد جميع الشروط أو العوامل المطلوبة لتنفيذ إجراء أو حدث بنجاح في بيئة متغيرة.