Propagation de la confiance à travers les CNNs pour une régression de profondeur guidée et parcimonieuse

Généralement, les réseaux de neurones convolutifs (CNNs) traitent des données sur une grille régulière, par exemple des données générées par des caméras ordinaires. La conception de CNNs pour des données d'entrée éparse et irrégulièrement espacées reste un problème de recherche ouvert avec de nombreuses applications dans le domaine de la conduite autonome, de la robotique et de la surveillance. Dans cet article, nous proposons une couche de convolution normalisée contrainte algébriquement pour les CNNs avec une entrée très éparse, qui possède un nombre moindre de paramètres du réseau comparativement aux travaux connexes. Nous proposons également de nouvelles stratégies pour déterminer la confiance à partir de l'opération de convolution et la propager aux couches suivantes. Nous présentons en outre une fonction objectif qui minimise simultanément l'erreur des données tout en maximisant la confiance de sortie. Pour intégrer des informations structurelles, nous examinons également des stratégies de fusion pour combiner les informations profondeur et RGB dans notre cadre de réseau à convolution normalisée. De plus, nous introduisons l'utilisation de la confiance de sortie comme information auxiliaire pour améliorer les résultats. Les capacités de notre cadre de réseau à convolution normalisée sont démontrées pour le problème d'achèvement de profondeur scénique. Des expériences approfondies sont menées sur les jeux de données KITTI-Depth et NYU-Depth-v2. Les résultats montrent clairement que l'approche proposée atteint des performances supérieures tout en nécessitant seulement environ 1-5% du nombre de paramètres requis par les méthodes d'avant-garde.