HyperAIHyperAI
منذ 17 أيام

الت régularisation غير المتماثلة للتعلم العميق القيمي القائم على المرجعية

Karsten Roth, Oriol Vinyals, Zeynep Akata
الت régularisation غير المتماثلة للتعلم العميق القيمي القائم على المرجعية
الملخص

تهدف التعلم العميق للقياس (DML) إلى تعلُّم فضاءات تمثيلية يمكن من خلالها التعبير ببساطة عن العلاقات المعنوية باستخدام مقاييس بُعد محددة مسبقًا. تُستخدم غالبًا طُرق الأداء الأفضل التي تعتمد على "التمثيلات الفئوية" (class proxies) كاستبدال للعينات، بهدف تحسين التقارب والتعميم. ومع ذلك، فإن هذه الطرق تعتمد فقط على تحسين المسافات بين العينات والتمثيلات، وبسبب الطبيعة غير التقابلية (non-bijective) للدوال المستخدمة لقياس المسافات، قد يؤدي ذلك إلى توزيعات عينات محلية متماثلة (locally isotropic)، مما يُفقد سياقًا معنويًا مهمًا بسبب صعوبة فهم البنية المحلية والعلاقات داخل الفئة بين العينات. لمعالجة هذه المشكلة، نقترح تنظيمًا غير متماثل (Non-isotropy Regularization) يُرمز إليه بـ $\mathbb{NIR}$، لتطبيقات التعلم العميق للقياس القائمة على التمثيلات. من خلال الاستفادة من عمليات التطبيع (Normalizing Flows)، نفرض قابلية تحويل فريدة للعينات من تمثيلاتها الفئوية المقابلة، ما يسمح لنا بتحفيز توزيع غير متماثل للعينات حول التمثيل، بهدف تحسينه بشكل صريح. وبذلك، نزوّد الأهداف القائمة على التمثيلات بقدرة أفضل على تعلُّم البنية المحلية. تُظهر التجارب الواسعة فوائد مُتَوَزِّنة في التعميم لـ $\mathbb{NIR}$، مع تحقيق أداءً تنافسيًا ومتقدمًا في أحدث المعايير القياسية مثل CUB200-2011 وCars196 وStanford Online Products. علاوةً على ذلك، نلاحظ أن خصائص التقارب المتفوقة للطرق القائمة على التمثيلات تبقى محفوظة أو حتى تتحسن، مما يجعل $\mathbb{NIR}$ خيارًا جذابًا جدًا للاستخدام العملي. الكود متاح عبر الرابط: https://github.com/ExplainableML/NonIsotropicProxyDML.

الت régularisation غير المتماثلة للتعلم العميق القيمي القائم على المرجعية | أحدث الأوراق البحثية | HyperAI