SMPConv : Représentations de points auto-mobiles pour la convolution continue

La convolution continue a récemment gagné en importance grâce à sa capacité à traiter des données échantillonnées de manière irrégulière et à modéliser des dépendances à long terme. De plus, les résultats expérimentaux prometteurs obtenus avec l'utilisation de grands noyaux de convolution ont accéléré le développement de la convolution continue, car ils peuvent construire ces grands noyaux de manière très efficace. L'approche prédominante pour mettre en œuvre la convolution continue repose sur l'utilisation des réseaux de neurones, plus spécifiquement des perceptrons multicouches (MLPs). Cependant, cette méthode présente quelques inconvénients, tels que des coûts computationnels élevés, une mise au point complexe des hyperparamètres et une puissance descriptive limitée des filtres. Ce papier propose une approche alternative pour construire une convolution continue sans recourir aux réseaux de neurones, aboutissant à une meilleure efficacité computationnelle et à des performances améliorées. Nous présentons des représentations de points auto-mobiles où les paramètres de poids se déplacent librement, et où des schémas d'interpolation sont utilisés pour implémenter des fonctions continues. Lorsqu'elles sont appliquées pour construire des noyaux de convolution, les résultats expérimentaux ont montré une amélioration des performances avec un remplacement direct dans les cadres existants. Grâce à sa structure légère, nous sommes les premiers à démontrer l'efficacité de la convolution continue dans un contexte d'échelle importante, par exemple sur ImageNet, en mettant en évidence les améliorations par rapport aux travaux antérieurs. Notre code est disponible sur https://github.com/sangnekim/SMPConv.