HyperAIHyperAI
منذ 2 أشهر

التعلم غير المشرف الأقلوي باستخدام تحويل Variety نادر

Yubei Chen; Zeyu Yun; Yi Ma; Bruno Olshausen; Yann LeCun
التعلم غير المشرف الأقلوي باستخدام تحويل Variety نادر
الملخص

نقدم طريقة بسيطة وقابلة للتفسير للتعلم غير المشرف، دون اللجوء إلى زيادة البيانات أو ضبط المعلمات الفائقة أو تصاميم هندسية أخرى، والتي تحقق أداءً قريبًا من أفضل الطرق في التعلم الذاتي شبه المشرف (SOTA SSL). تعتمد طريقتنا على تحويل Variety Manifold (المنشور النحيف)، الذي يجمع بين الترميز النادر، وتعلم الأصناف، وتحليل السمات البطيئة. باستخدام تحويل Variety Manifold نادر ومحدد ذو طبقة واحدة، يمكن تحقيق دقة KNN أعلى بنسبة 99.3% على مجموعة بيانات MNIST، ودقة KNN أعلى بنسبة 81.1% على مجموعة بيانات CIFAR-10، ودقة بنسبة 53.2% على CIFAR-100. ومع استخدام زيادة بسيطة للألوان الرمادية، يصل النموذج إلى دقة KNN أعلى بنسبة 83.2% على CIFAR-10 ونسبة 57% على CIFAR-100. هذه النتائج تقصر بشكل كبير الفجوة بين الطرق البسيطة "المabox البيضاء" وأفضل الطرق (SOTA). بالإضافة إلى ذلك، نوفر تصورًا لشرح كيفية تكوين تحويل تمثيل غير مشرف. الطريقة المقترحة مرتبطة ارتباطًا وثيقًا بالطرق شبه المشرفة ذات التضمين الخفي ويمكن اعتبارها أبسط صورة لـ VICReg. رغم وجود فجوة أداء صغيرة بين نموذجنا البسيط والمبتكر وأفضل الطرق (SOTA)، فإن الأدلة تشير إلى أن هذا هو اتجاه واعد لتحقيق نهج مبدئي ومنabox أبيض للتعلم غير المشرف.注:在阿拉伯语中,“白盒”通常翻译为 "مabox أبيض",但为了更符合科技领域的表达习惯,建议使用 "علبة بيضاء" 或 "مربع أبيض"。因此,上述翻译中的 "مabox أبيض" 可以替换为 "علبة بيضاء" 或 "مربع أبيض"。以下是修正后的版本:نقدم طريقة بسيطة وقابلة للتفسير للتعلم غير المشرف، دون اللجوء إلى زيادة البيانات أو ضبط المعلمات الفائقة أو تصاميم هندسية أخرى، والتي تحقق أداءً قريبًا من أفضل الطرق في التعلم الذاتي شبه المشرف (SOTA SSL). تعتمد طريقتنا على تحويل Variety Manifold (المنشور النحيف)، الذي يجمع بين الترميز النادر، وتعلم الأصناف، وتحليل السمات البطيئة. باستخدام تحويل Variety Manifold نادر ومحدد ذو طبقة واحدة، يمكن تحقيق دقة KNN أعلى بنسبة 99.3% على مجموعة بيانات MNIST، ودقة KNN أعلى بنسبة 81.1% على مجموعة بيانات CIFAR-10، ودقة بنسبة 53.2% على CIFAR-100. ومع استخدام زيادة بسيطة للألوان الرمادية، يصل النموذج إلى دقة KNN أعلى بنسبة 83.2% على CIFAR-10 ونسبة 57% على CIFAR-100. هذه النتائج تقصر بشكل كبير الفجوة بين الطرق البسيطة "المربع الأبيض" وأفضل الطرق (SOTA). بالإضافة إلى ذلك، نوفر تصورًا لشرح كيفية تكوين تحويل تمثيل غير مشرف. الطريقة المقترحة مرتبطة ارتباطًا وثيقًا بالطرق شبه المشرفة ذات التضمين الخفي ويمكن اعتبارها أبسط صورة لـ VICReg. رغم وجود فجوة أداء صغيرة بين نموذجنا البسيط والمبتكر وأفضل الطرق (SOTA)، فإن الأدلة تشير إلى أن هذا هو اتجاه واعد لتحقيق نهج مبدئي ومربع أبيض للتعلم غير المشرف.

التعلم غير المشرف الأقلوي باستخدام تحويل Variety نادر | أحدث الأوراق البحثية | HyperAI