HyperAIHyperAI

Command Palette

Search for a command to run...

كشف البيانات غير الموزعة بشكل توزيعي من خلال الأولويات الفئوية الموزعة بشكل توزيعي

Bo Han Feng Zheng Tongliang Liu Hong Chen Zhen Fang Feng Liu Xue Jiang

الملخص

بالنظر إلى نموذج مُدرَّب مسبقًا على بيانات داخل التوزيع (ID)، يهدف كشف البيانات الخارجة عن التوزيع (OOD) أثناء مرحلة الاستدلال إلى تمييز البيانات OOD خلال مرحلة الاستدلال. ومع ذلك، فإن بعض الطرق البارزة تعتمد على افتراض غير مثبت بأن احتمال انتماء البيانات OOD إلى كل فئة من فئات ID يكون متساويًا، أي أن هذه الاحتمالات من OOD إلى ID تشكّل توزيعًا منتظمًا. في هذا البحث، نُظهر أن هذا الافتراض يجعل هذه الطرق عاجزة عن الأداء بشكل فعّال عندما يتم تدريب النموذج ID باستخدام بيانات غير متوازنة من حيث الفئات. وبشكل مُفرح، من خلال تحليل العلاقات السببية بين فئات ID وOOD والميزات المرتبطة بها، نحدد عدة سيناريوهات شائعة حيث يجب أن تكون الاحتمالات من OOD إلى ID مطابقة لتوزيع الاحتمالات الأولية للفئات ID، ونُقدّم استراتيجيتين لتعديل الطرق الحالية لكشف OOD أثناء الاستدلال: 1) استبدال التوزيع المنتظم بالاحتمالات الأولية للفئات ID إذا كانت هذه الطرق تستخدم التوزيع المنتظم صراحةً؛ 2) وإلا، إعادة وزن الدرجات الناتجة بناءً على درجة التشابه بين توزيع الاحتمالات الأولية للفئات ID ونتائج دالة softmax للنموذج المُدرَّب مسبقًا. تُظهر التجارب الواسعة أن كلا الاستراتيجيتين يمكن أن يُحسّنا من أداء كشف OOD عندما يُدرَّب النموذج ID باستخدام بيانات غير متوازنة، مما يُبرز الأهمية الحاسمة لتوزيع الاحتمالات الأولية للفئات ID في كشف OOD.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp