HyperAIHyperAI

Command Palette

Search for a command to run...

الاندماج المُنتَقِي الذاتي للتعرف على العواطف الصوتية البصرية مع بيانات غير كاملة

Kateryna Chumachenko Alexandros Iosifidis Moncef Gabbouj

الملخص

في هذه الورقة، نتناول مشكلة تحليل البيانات متعددة الوسائط من خلال حالة استخدام تتضمن التعرف على المشاعر من خلال الوسائط الصوتية والبصرية. نقترح معمارية قادرة على التعلم من البيانات الخام، ونصف ثلاث نسخ متنوعة منها تتميز بآليات مختلفة لدمج الوسائط. في حين أن معظم الدراسات السابقة افترضت السيناريو المثالي الذي يتوفر فيه كلا الوسائط في جميع الأوقات أثناء الاستدلال، فإننا نقيّم مقاومة النموذج في البيئات غير المقيدة حيث قد يكون أحد الوسائط مفقودًا أو ملوثًا، ونُقدّم طريقة لتخفيف هذه القيود من خلال ما يُعرف بـ"إسقاط الوسائط" (modality dropout). والأهم من ذلك، نجد أن اتباع هذا النهج لا يُحسّن الأداء بشكل كبير في حال غياب أو تلوث تمثيل أحد الوسائط، بل يُحسّن أيضًا الأداء في البيئة القياسية المثالية، متفوقًا على الطرق المنافسة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp