Fonction de coût par déroulement dans le flux optique non supervisé

Les algorithmes de descente du plus fort gradient, couramment utilisés en apprentissage profond, utilisent le gradient comme direction de descente, soit tel quel, soit après un ajustement de direction via une préconditionnement. Dans de nombreuses situations, le calcul du gradient s'avère numériquement difficile en raison de fonctions de coût complexes ou non différentiables, notamment au voisinage de points singuliers. Dans ce travail, nous nous concentrons sur la dérivation de la semi-norme de variation totale, couramment employée dans les fonctions de coût non supervisées. Plus précisément, nous proposons un proxy différentiable de la contrainte de régularité L1, qui est difficile à traiter, au sein d’un nouveau schéma itératif que nous appelons « déroulement de la fonction de coût » (Cost Unrolling). En produisant des gradients plus précis pendant l’entraînement, notre méthode permet d’améliorer la convergence et d’obtenir des prédictions plus fines pour un modèle DNN donné, sans modifier son architecture ni augmenter sa complexité computationnelle. Nous démontrons l’efficacité de notre approche sur la tâche non supervisée de flux optique. En remplaçant la contrainte de régularité L1 par notre fonction de coût déroulée lors de l’entraînement d’un modèle de référence bien connu, nous obtenons des résultats améliorés sur les benchmarks non supervisés de flux optique MPI Sintel et KITTI 2015. En particulier, nous rapportons une réduction de jusqu’à 15,82 % de l’erreur de flux euclidien (EPE) sur les pixels masqués, où la contrainte de régularité joue un rôle prédominant, permettant ainsi la détection d’arêtes de mouvement beaucoup plus nettes.