Amélioration des images sous-marines à l'aide de réseaux adversariaux génératifs

Les véhicules autonomes sous-marins (AUVs) s'appuient sur une variété de capteurs - acoustiques, inertiels et visuels - pour prendre des décisions intelligentes. En raison de sa nature non intrusive et passive, ainsi que de son contenu d'information élevé, la vision est un mode de détection attractif, en particulier à des profondeurs plus faibles. Cependant, des facteurs tels que la réfraction et l'absorption de la lumière, les particules en suspension dans l'eau et la distorsion des couleurs affectent la qualité des données visuelles, entraînant des images bruyantes et déformées. Les AUVs qui s'appuient sur la détection visuelle sont donc confrontés à des défis importants et présentent par conséquent une performance médiocre lors des tâches guidées par la vision. Cet article propose une méthode pour améliorer la qualité des scènes sous-marines visuelles en utilisant des Réseaux Adversariaux Génératifs (GANs), dans le but d'améliorer l'entrée pour les comportements guidés par la vision plus loin dans le processus d'autonomie. De plus, nous montrons comment les méthodes récemment proposées sont capables de générer un ensemble de données destiné à ce type de restauration d'images sous-marines. Pour tout robot sous-marin guidé par la vision, cette amélioration peut entraîner une augmentation de la sécurité et de la fiabilité grâce à une perception visuelle robuste. À cet effet, nous présentons des données quantitatives et qualitatives qui démontrent que les images corrigées par l'approche proposée génèrent des images plus agréables visuellement et offrent également une précision accrue pour un algorithme de suivi de plongeur.