HyperAIHyperAI
منذ 7 أيام

تجميع التكلفة هو كل ما تحتاجه للفصل القائم على عدد قليل من الأمثلة

Sunghwan Hong, Seokju Cho, Jisu Nam, Seungryong Kim
تجميع التكلفة هو كل ما تحتاجه للفصل القائم على عدد قليل من الأمثلة
الملخص

نُقدّم شبكة تجميع تكلفة جديدة، تُسمّى تجميع حجمي باستخدام المحولات (VAT)، لمعالجة مهمة التجزئة القليلة المعينات من خلال استخدام كل من التحويلات التلافيفية (convolutions) والمحولات (transformers) لمعالجة فعّالة للخرائط عالية الأبعاد للارتباط بين الاستفسار (query) والدعم (support). بشكل محدد، نقترح مُشفّرًا يتضمّن وحدة ترميز حجمي (volume embedding module) التي لا تحوّل خرائط الارتباط إلى حجم أكثر سهولة للتعامل معها فحسب، بل تُضفي أيضًا بعض التحيّزات التلافيفية (convolutional inductive bias)، بالإضافة إلى وحدة محول حجمي (volumetric transformer module) لغرض تجميع التكلفة. ويتميز هذا المُشفّر ببنية هرمية تسمح للترميز على المستويات الأقل دقة بتوجيه الترميز على المستويات الأدق، وتعزز التعلّم على توليد درجات مطابقة مكملة. ثم نُدخل الناتج إلى مُفكّك يراعي الترابط (affinity-aware decoder)، مع خرائط مُشَرّعة (projected feature maps) لتوجيه عملية التجزئة. وباستخدام هذه المكونات معًا، نُجري تجارب تُظهر فعالية الطريقة المقترحة، حيث تُحقّق هذه الطريقة أداءً جديدًا يُعدّ الأفضل حتى الآن على جميع المعايير القياسية في مهمة التجزئة القليلة المعينات. علاوةً على ذلك، نلاحظ أن الطريقة المقترحة تُحقّق أداءً يُعدّ الأفضل حتى في المعايير القياسية لمهام التطابق الدلالي (semantic correspondence)، رغم أنها لم تُصمّم خصيصًا لهذا الغرض. كما نقدّم دراسة تحليلية موسّعة (ablation study) لتأكيد صحة اختيار البنية المعمارية. يمكن الوصول إلى الأوزان المدربة والكود المصدر عبر الرابط التالي: https://seokju-cho.github.io/VAT/.

تجميع التكلفة هو كل ما تحتاجه للفصل القائم على عدد قليل من الأمثلة | أحدث الأوراق البحثية | HyperAI