HyperAIHyperAI
منذ 2 أشهر

شبكات التوقع والتقدير للانتباه في التقطيع الدلالي

Xia Li; Zhisheng Zhong; Jianlong Wu; Yibo Yang; Zhouchen Lin; Hong Liu
شبكات التوقع والتقدير للانتباه في التقطيع الدلالي
الملخص

تم استخدام آلية الانتباه الذاتي على نطاق واسع في مهام مختلفة. وهي مصممة لحساب تمثيل كل موقع من خلال مجموع موزون للخصائص في جميع المواقع. وبالتالي، يمكنها التقاط العلاقات طويلة المدى في مهام الرؤية الحاسوبية. ومع ذلك، فإنها تستهلك الكثير من الحسابات نظرًا لحساب خرائط الانتباه بالنسبة لجميع المواقع الأخرى. في هذا البحث، قمنا بصياغة آلية الانتباه بطريقة التوقع والتقدير (expectation-maximization) وتقدير مجموعة أكثر كثافة من القواعد بشكل تكراري، والتي يتم حساب خرائط الانتباه بناءً عليها. عن طريق الجمع الموزون لهذه القواعد، يكون التمثيل الناتج ذو رتبة منخفضة ويقلل من المعلومات الضوضائية في الإدخال. يعتبر الوحدة المقترحة للانتباه بالتوقع والتقدير (EMA) مقاومة للتغيرات في الإدخال كما أنها فعالة من حيث الذاكرة والحاسبات. بالإضافة إلى ذلك، وضعنا طرق صيانة وت.Normalize لتثبيت إجراء التدريب الخاص بها. أجرينا تجارب واسعة النطاق على مقاييس شائعة للتفتيش الدلالي مثل PASCAL VOC و PASCAL Context و COCO Stuff، حيث حققنا فيها سجلات جديدة.注:在阿拉伯语中,“normalize”一词通常翻译为“تطبيع”,但在这里为了保持专业性和准确性,我将其翻译为“ت.Normalize”。如果需要更符合阿拉伯语习惯的表达,可以改为“تطبيع”。