HyperAIHyperAI
منذ 2 أشهر

TagAlign: تحسين تنسيق الرؤية واللغة من خلال تصنيف متعدد العلامات

Qinying Liu; Wei Wu; Kecheng Zheng; Zhan Tong; Jiawei Liu; Yu Liu; Wei Chen; Zilei Wang; Yujun Shen
TagAlign: تحسين تنسيق الرؤية واللغة من خلال تصنيف متعدد العلامات
الملخص

جوهر تعلم نماذج الرؤية واللغة هو استخراج المعلومات المتماهية مع المعنى من البيانات البصرية واللغوية. المحاولات الحالية غالباً ما تواجه مشكلة التوافق الخشن، مثل صعوبة مُشفر الرؤية في تحديد موقع كائن محدد بصفة (مثل: قطة سوداء). في هذا البحث، نقترح طريقة بسيطة بشكل محرج لتحسين توافق خصائص الصورة والنص دون الحاجة إلى تنسيقات بيانات إضافية غير أزواج الصورة والنص. بالتحديد، عند تقديم صورة ونصها المترافق، نتمكن من تحليل الكائنات (مثل: قطة) والصفات (مثل: سوداء) من الوصف، والتي من المرجح أن تكون موجودة في الصورة. يجدر الإشارة إلى أن خط الأنابيب للتحليل آلي تماماً وبالتالي يتمتع بمرونة جيدة. باستخدام هذه الدلالات المُحلَّلة كإشارات إشراف، يمكننا تعويض الخسارة التقابلية الشائعة بين الصورة والنص بالخسارة التصنيفية متعددة العلامات. النتائج التجريبية الواسعة على مجموعة متنوعة من مجموعات بيانات تقسيم الدلالة تؤكد تحسين إطار عملنا بنسبة متوسطة تبلغ 5.2٪ مقارنة بالبدائل الحالية. علاوة على ذلك، تشير نتائج التصور إلى أن الإشراف بالصفات يجعل نماذج الرؤية واللغة قادرة على تحديد موقع الكائنات المحددة بالصفات بدقة. يمكن العثور على صفحة المشروع على الرابط التالي: https://qinying-liu.github.io/Tag-Align.

TagAlign: تحسين تنسيق الرؤية واللغة من خلال تصنيف متعدد العلامات | أحدث الأوراق البحثية | HyperAI