
Bien que les méthodes récentes d’augmentation automatique des données aboutissent à des résultats de pointe, leurs espaces de conception et les stratégies d’augmentation dérivées continuent de repose sur des connaissances a priori humaines fortes. Dans ce travail, au lieu de fixer un ensemble de transformations d’augmentation par défaut choisies manuellement en parallèle avec les transformations recherchées, nous proposons une approche entièrement automatisée pour la recherche d’augmentation des données, nommée Deep AutoAugment (DeepAA). DeepAA construit progressivement une chaîne d’augmentation multi-couches à partir de zéro en empilant itérativement des couches d’augmentation jusqu’à atteindre la convergence. Pour chaque couche d’augmentation, la politique est optimisée afin de maximiser la similarité cosinus entre les gradients des données d’origine et des données augmentées, le long de la direction à faible variance. Nos expériences montrent qu’en l’absence de transformations par défaut, il est possible d’apprendre une politique d’augmentation atteignant des performances solides, comparables à celles des méthodes antérieures. Des études d’ablation étendues démontrent que l’ajustement régularisé des gradients constitue une méthode efficace pour la recherche de politiques d’augmentation des données. Notre code est disponible à l’adresse suivante : https://github.com/MSU-MLSys-Lab/DeepAA.