HyperAIHyperAI

Command Palette

Search for a command to run...

منذ 2 أيام

أفضل حدود الأخطاء المثلى لتعلم آليات التحويل التتابعي

Zachary Chase Steve Hanneke Shay Moran Jonathan Shafer

أفضل حدود الأخطاء المثلى لتعلم آليات التحويل التتابعي

الملخص

نحلّ حلًا دقيقًا لمشكلة مفتوحة منذ 30 عامًا تتعلق بقدرة البيانات غير المُعلّمة في التعلّم عبر الإنترنت، من خلال تحديد الفجوة بدقة بين التعلّم التحويلي (transductive) والتعلّم عبر الإنترنت القياسي. نُثبت أن كل فئة مفاهيم ذات بعد ليتلستون (Littlestone dimension) يساوي ( d )، فإن حد الخطأ التحويلي يكون على الأقل ( \Omega(\sqrt{d}) ). وهذا يُحدث تحسينًا أساسيًا على الحدود الدنيا السابقة التي كانت على التوالي ( \Omega(\log \log d) )، ( \Omega(\sqrt{d}) )، و ( \Omega(\sqrt{\log d}) )، والتي قدمها بن-ديفيد، كوشيليفيتز، ومانسور (1995، 1997) وهاننيك، موران، وشافر (2023). كما نُظهر أن حدّنا هذا هو حدّ دقيق: لكل قيمة ( d )، توجد فئة ذات بعد ليتلستون ( d ) تحقق حدًّا للخطأ التحويلي يساوي ( O(\sqrt{d}) ). كما أن حدّنا العلوي يُحسّن أفضل حدّ علوي معروف سابقًا، وهو ( \frac{2}{3} \cdot d )، الذي قدمه بن-ديفيد وآخرون (1997). تُظهر هذه النتائج وجود فجوة تربيعية بين التعلّم التحويلي والتعلّم عبر الإنترنت القياسي، مما يُبرز الفائدة الناتجة عن الوصول المُتقدّم إلى تسلسل الأمثلة غير المُعلّمة. ويشكّل هذا تباينًا صارخًا مع بيئة التعلّم القائم على نموذج PAC، حيث تُظهر التعلّم التحويلي والقياسي تعقيدات عينية متشابهة.

بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة المشتركة بالذكاء الاصطناعي
وحدات معالجة رسومات جاهزة
أفضل الأسعار
ابدأ الآن

Hyper Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
أفضل حدود الأخطاء المثلى لتعلم آليات التحويل التتابعي | الأوراق البحثية | HyperAI