MIT révolutionne la navigation des robots de sauvetage : une nouvelle méthode hybride crée en quelques secondes des cartes 3D précises sans calibration
Dans une catastrophe minière, chaque seconde compte. Imaginez un robot de sauvetage évoluant dans un tunnel effondré, envahi de fumée, de décombres et de poutres tordues. Il doit rapidement cartographier l’environnement, repérer des passages sûrs et déterminer sa propre position. Mais cette tâche est loin d’être simple. Même les modèles d’intelligence artificielle les plus performants ne peuvent traiter qu’un petit nombre d’images à la fois. Dans un vrai contexte de secours, où les robots doivent traverser de vastes zones en quelques minutes, il leur faut analyser des milliers d’images — une charge computationnelle que les systèmes actuels ne peuvent pas supporter. Pour relever ce défi, une équipe du Massachusetts Institute of Technology (MIT) a combiné les dernières avancées en vision par ordinateur basées sur l’IA avec des principes fondamentaux de la vision par ordinateur classique. Le résultat ? Un système capable de reconstruire en quelques secondes une carte 3D précise d’environnements complexes, sans calibration de caméra ni réglages manuels. Le principal obstacle à la navigation robotique est le SLAM (Localisation et Cartographie Simultanées). Traditionnellement, ce processus repose sur des calculs mathématiques complexes et une calibration précise des capteurs, ce qui le rend fragile dans des conditions réelles — lumière faible, scènes désordonnées, obstacles multiples. L’approche par apprentissage automatique promettait une solution plus robuste, mais ses performances étaient limitées par une faible capacité de traitement : les modèles ne pouvaient traiter qu’une trentaine d’images à la fois. L’équipe du MIT a adopté une stratégie radicalement différente : au lieu de reconstruire tout l’environnement d’un coup, elle divise la tâche en sous-parties. Le système génère plusieurs « sous-cartes » (submaps) à partir de petits groupes d’images, puis les assemble en une carte globale. Cette approche réduit la charge computationnelle à chaque étape, tout en permettant une reconstruction à grande échelle. Mais au début, les résultats étaient décevants. « Nous pensions que l’alignement des sous-cartes pouvait se faire simplement par translation et rotation, comme dans les méthodes classiques », explique Dominic Maggio, doctorant à l’origine du projet. « Mais les cartes générées par l’IA présentaient des distorsions géométriques : des murs droits apparaissaient courbés, des angles étaient déformés. » Ces erreurs empêchaient une fusion cohérente. La solution est venue d’un retour aux fondamentaux. En explorant des travaux de vision par ordinateur des années 1980 et 1990, l’équipe a découvert des outils mathématiques capables de modéliser et de corriger ces déformations. Grâce à un cadre mathématique hybride, le système peut non seulement aligner les sous-cartes, mais aussi s’assurer que les distorsions sont cohérentes d’un segment à l’autre, produisant ainsi une reconstruction 3D globalement fidèle. Le résultat est spectaculaire : en quelques secondes, le système fournit une reconstruction 3D haute précision, estime la position de chaque capteur et localise le robot en temps réel — sans calibration, sans capteurs externes, et sans intervention humaine. Testé avec des vidéos prises par un smartphone, le système a reconstruit en temps quasi réel des scènes complexes, comme l’intérieur de la cathédrale du MIT, avec une erreur moyenne inférieure à 5 centimètres. Cette avancée a des applications immédiates dans les opérations de secours, où la rapidité et la fiabilité sont vitales. Mais ses retombées s’étendent bien au-delà : modélisation 3D en temps réel pour les casques VR/AR, navigation de robots dans les entrepôts, ou encore cartographie urbaine. « L’IA ne remplace pas la géométrie, elle s’en sert », affirme Luca Carlone, professeur à l’École de génie aérospatial du MIT. « Comprendre les principes fondamentaux permet de concevoir des systèmes plus puissants, plus fiables, et plus évolutifs. » L’équipe espère bientôt tester cette technologie dans des scénarios réels de secours, pour que les robots puissent « voir » le monde autour d’eux, vite et avec précision, même dans les pires conditions.
