Command Palette
Search for a command to run...
Bornes optimales d'erreurs pour l'apprentissage en ligne transductif
Zachary Chase Steve Hanneke Shay Moran Jonathan Shafer

Résumé
Nous résolvons un problème ouvert depuis 30 ans concernant le pouvoir des données non étiquetées dans l’apprentissage en ligne, en quantifiant précisément l’écart entre l’apprentissage transductif et l’apprentissage en ligne standard. Nous démontrons que pour toute classe de concepts de dimension de Littlestone égale à ( d ), la borne en nombre d’erreurs en apprentissage transductif est au moins en ( \Omega(\sqrt{d}) ). Ce résultat établit une amélioration exponentielle par rapport aux bornes inférieures précédentes de ( \Omega(\log \log d) ), ( \Omega(\sqrt{d}) ) et ( \Omega(\sqrt{\log d}) ), respectivement obtenues par Ben-David, Kushilevitz et Mansour (1995, 1997) et Hanneke, Moran et Shafer (2023). Nous montrons également que notre borne est serrée : pour tout ( d ), il existe une classe de dimension de Littlestone ( d ) dont la borne en nombre d’erreurs en apprentissage transductif est en ( O(\sqrt{d}) ). Notre borne supérieure améliore également la meilleure borne supérieure précédemment connue, égale à ( \frac{2}{3} \cdot d ), due à Ben-David et al. (1997). Ces résultats mettent en évidence un écart quadratique entre l’apprentissage transductif et l’apprentissage en ligne standard, soulignant ainsi les avantages de l’accès anticipé à la séquence d’exemples non étiquetés. Ce phénomène se distingue fortement du cadre PAC, où apprentissage transductif et apprentissage standard présentent des complexités d’échantillonnage similaires.
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.