Prévention de l'intrusion manifolde par localité : Local Mixup

Le Mixup est une technique de régularisation dépendante des données consistant à interpoler linéairement des échantillons d’entrée et leurs sorties associées. Il a été démontré qu’il améliore la précision lors de l’entraînement sur des jeux de données standard en apprentissage automatique. Toutefois, les auteurs ont souligné que le Mixup peut générer des échantillons virtuels hors distribution et même des contradictions dans l’ensemble d’entraînement augmenté, pouvant entraîner des effets adverses. Dans cet article, nous introduisons le Local Mixup, dans lequel les échantillons d’entrée éloignés sont pénalisés lors du calcul de la perte. Dans des configurations contraintes, nous montrons que le Local Mixup permet d’établir un compromis entre biais et variance, les cas extrêmes correspondant respectivement à l’entraînement classique et au Mixup classique. À l’aide de benchmarks standardisés en vision par ordinateur, nous démontrons également que le Local Mixup peut améliorer la précision sur les données de test.