HyperAIHyperAI

Command Palette

Search for a command to run...

لماذا ينبغي أن أثق بك؟: تفسير تنبؤات أي تصنيف

Ribeiro Marco Tulio Singh Sameer Guestrin Carlos

الملخص

على الرغم من الاعتماد الواسع النطاق على نماذج التعلم الآلي، تظل هذه النماذج في معظمها "صندوقًا أسودًا". ومع ذلك، فإن فهم الأسباب الكامنة وراء التنبؤات يُعد أمرًا بالغ الأهمية في تقييم درجة الثقة، وهي مسألة أساسية إن كان الشخص يخطط لاتخاذ إجراء بناءً على تنبؤ معين، أو عند اتخاذ قرار بشأن نشر نموذج جديد. كما يوفر هذا الفهم رؤى حول النموذج نفسه، يمكن استخدامها لتحويل نموذج أو تنبؤ غير موثوق إلى نموذج أو تنبؤ موثوق. في هذه الدراسة، نقترح LIME، وهي تقنية تفسير جديدة تفسر تنبؤات أي تصنيفية بطريقة قابلة للتفسير وموثوقة، من خلال تعلم نموذج قابل للتفسير محليًا حول النقطة المتنبأة بها. كما نقترح أيضًا طريقة لتفسير النماذج من خلال عرض تنبؤات فردية ممثلة وشرحها بطريقة غير متكررة، ونُصِف المهمة كمُشكلة تحسين تفرعي (submodular optimization). ونُظهر مرونة هذه الأساليب من خلال تفسير نماذج مختلفة للتصنيف النصي (مثل الغابات العشوائية) والتصنيف الصوتي (مثل الشبكات العصبية). كما نُظهر فائدة التفسيرات من خلال تجارب جديدة، سواء محاكاة أو تجارب مع مشاركين بشريين، في سيناريوهات متنوعة تتطلب الثقة: مثل تحديد ما إذا كان ينبغي الثقة بتنبؤ معين، أو اختيار أحد النماذج على الآخر، أو تحسين تصنيفية غير موثوقة، أو تحديد أسباب عدم جدوى الثقة بنموذج تصنيف معين.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
لماذا ينبغي أن أثق بك؟: تفسير تنبؤات أي تصنيف | مستندات | HyperAI