HyperAIHyperAI

Command Palette

Search for a command to run...

نهج موحد لتفنيد تنبؤات النموذج

Lundberg Scott Lee Su-In

الملخص

فهم سبب توصل نموذج ما إلى توقع معين يمكن أن يكون بنفس الأهمية التي تُمنح لدقة التوقع في العديد من التطبيقات. ومع ذلك، فإن أعلى دقة في مجموعة بيانات كبيرة حديثة غالبًا ما تُحقق بواسطة نماذج معقدة يصعب حتى على الخبراء فهمها، مثل النماذج المجمعة أو نماذج التعلم العميق، مما يُحدث تناقضًا بين الدقة والقابلية للتفسير. وبهدف التصدي لهذا التحدي، تم مؤخرًا اقتراح مجموعة من الأساليب لمساعدة المستخدمين على فهم توقعات النماذج المعقدة، لكن من الصعب غالبًا تحديد العلاقة بين هذه الأساليب، أو متى يكون أحد هذه الأساليب أفضل من الآخر. ولحل هذه المشكلة، نقدّم إطارًا موحدًا لتفسير التوقعات، يُعرف بـ SHAP (SHapley Additive exPlanations). يُعيّن SHAP قيمة أهمية لكل خاصية (ميزة) بالنسبة لتوقع معين. وتشمل مكوناته المبتكرة ما يلي: (1) تحديد فئة جديدة من مقاييس أهمية الخصائص الجامعية، و(2) نتائج نظرية تُظهر وجود حل وحيد ضمن هذه الفئة يتمتع بمجموعة من الخصائص المرغوبة. وتُوحد الفئة الجديدة ستة أساليب موجودة سابقًا، وهو أمر ذي أهمية خاصة لأن عدة أساليب حديثة ضمن هذه الفئة تفتقر إلى الخصائص المرغوبة التي اقترحناها. وباستناد إلى رؤى ناتجة عن هذه التوحيد، نقدّم أساليب جديدة تُظهر أداءً حسابيًا مُحسّنًا و/أو تطابقًا أفضل مع الحدس البشري مقارنة بالأساليب السابقة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp