HyperAIHyperAI

Command Palette

Search for a command to run...

منذ 4 أشهر

خسارة المتوسط والانحراف المعياري لتقدير العمر العميق من الوجه

{Xilin Chen Hongyu Pan Shiguang Shan Hu Han}

خسارة المتوسط والانحراف المعياري لتقدير العمر العميق من الوجه

الملخص

تمتلك تقدير العمر إمكانات تطبيقية واسعة في مجالات متعددة، مثل المراقبة عبر الفيديو، والشبكات الاجتماعية، وتفاعل الإنسان مع الحاسوب. ومع ذلك، فإن العديد من الأساليب المنشورة لتقدير العمر تتعامل مع هذه المهمة كمشكلة انحدار دقيق للعمر، مما يعني أنها لا تستفيد من قوة تمثيل التوزيع في تمثيل العلامات الغامضة مثل الأعمار. في هذا البحث، نقترح دالة خسارة جديدة تُسمى "دالة الخسارة المتوسط-التباين" (Mean-Variance Loss) لتقدير عمر أكثر موثوقية من خلال التعلم التوزيعي. بشكل محدد، تتألف دالة الخسارة المتوسط-التباين من جزأين: جزء الخسارة المتوسطة، الذي يعاقب الفرق بين المتوسط المقدر لتوزيع العمر والقيمة الحقيقية للعمر، وجزء الخسارة التباينية، الذي يعاقب التباين في التوزيع المقدر لضمان تجميع التوزيع حول قيمة محددة. تم دمج دالة الخسارة المتوسط-التباين مع دالة الخسارة softmax بشكل مشترك داخل الشبكات العصبية التلافيفية (CNNs) لتقدير العمر، وتم تحسين أوزان الشبكة باستخدام خوارزمية الانحدار التدريجي العشوائي (SGD) بطريقة تعلم من الطرف إلى الطرف. أظهرت النتائج التجريبية على عدد من قواعد بيانات التحدي في التقدم في العمر (FG-NET، MORPH Album II، وCLAP2016) أن النهج المقترح يتفوق على أحدث الأساليب المنشورة بفارق كبير باستخدام نموذج واحد فقط.

المعايير القياسية

معيار قياسيالمنهجيةالمقاييس
age-estimation-on-chalearn-2016Mean-Variance
e-error: 0.2867

بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة المشتركة بالذكاء الاصطناعي
وحدات معالجة رسومات جاهزة
أفضل الأسعار
ابدأ الآن

Hyper Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
خسارة المتوسط والانحراف المعياري لتقدير العمر العميق من الوجه | الأوراق البحثية | HyperAI