Atlas robot repense l’apprentissage : grâce à une IA nouvelle génération, il maîtrise des tâches complexes en s’adaptant au chaos du réel
Boston Dynamics et le Toyota Research Institute (TRI) ont annoncé récemment une avancée majeure dans le domaine de l’intelligence artificielle appliquée aux robots, marquant une étape clé vers la réalisation de robots humanoïdes capables de traiter une grande variété de tâches. Grâce à une collaboration approfondie, le célèbre robot humanoïde Atlas a été doté d’un nouveau système d’intelligence artificielle basé sur des modèles de comportement à grande échelle (Large Behavior Models, LBM). Cette innovation permet à Atlas d’apprendre de nouvelles compétences non pas par des programmes préétablis, mais en observant des démonstrations humaines, ouvrant ainsi la voie à une robotique plus flexible et plus autonome. Jusqu’à présent, la programmation traditionnelle des robots souffrait d’un grave défaut : chaque situation possible devait être codée manuellement, ce qui rendait le processus long, coûteux et fragile. Même de petites variations dans l’environnement pouvaient entraîner l’échec de la mission. Russ Tedrake, vice-président senior des modèles de comportement au TRI, souligne que « l’un des principaux atouts des robots humanoïdes réside dans leur capacité à interagir dans des environnements conçus pour les humains, mais les méthodes de programmation classiques ne peuvent pas s’échelonner à cette complexité ». Le modèle LBM résout ce problème en adoptant une approche d’apprentissage par démonstration. Il permet d’ajouter rapidement de nouvelles compétences à Atlas en se basant sur des actions humaines, tout en réduisant progressivement la quantité de données humaines nécessaires à mesure que le modèle s’améliore. Ce système repose sur une stratégie d’IA « bout-en-bout » (end-to-end), intégrant perception, décision et contrôle dans un seul réseau neuronal. Contrairement aux approches traditionnelles qui traitent séparément la marche, l’équilibre ou la manipulation, ce cerveau unifié permet à Atlas de coordonner l’ensemble de son corps — bras, jambes, mains — pour exécuter des tâches complexes et séquentielles. Dans une vidéo de démonstration, Atlas s’attaque à une charrette remplie de pièces de Spot, un robot quadrupède. Il se déplace avec assurance, saisit une jambe mécanique, la plie avec précision, puis la dépose sur une étagère. Il récupère ensuite d’autres pièces, ouvre un tiroir, les range, puis se tourne vers un grand bac rempli de pièces désordonnées. Il en saisit plusieurs poignées et les transfère vers une autre charrette. L’ensemble du processus, composé de mouvements multiples et interconnectés, s’enchaîne de manière fluide. Ce qui frappe le plus, c’est la capacité d’adaptation du robot. Lorsque les chercheurs introduisent des perturbations — comme fermer brusquement un couvercle ou faire tomber une pièce — Atlas n’arrête pas son exécution. Il tente d’ouvrir le tiroir bloqué, se penche pour ramasser l’objet tombé. Cette résilience n’est pas le fruit de code préprogrammé, mais le résultat d’un apprentissage sur des données d’expériences humaines incluant des erreurs et des corrections. Le système repose sur une collecte de données hautement immersive via un système de téléopération en réalité virtuelle (VR). Des opérateurs contrôlent Atlas en temps réel, en voyant à travers ses capteurs, tout en émettant des instructions verbales. Les données capturées — images RGB, données de position des articulations, commandes linguistiques — sont utilisées pour entraîner un réseau neuronal de 450 millions de paramètres, basé sur une architecture de type diffusion transformer. L’approche clé réside dans la création de « politiques généralistes » : au lieu de former un modèle différent pour chaque tâche, les chercheurs ont combiné des données provenant d’Atlas complet, d’un bras supérieur isolé, et d’autres plateformes robotiques du TRI. Ce modèle unique apprend à généraliser, ce qui améliore sa robustesse face à des situations inédites. Il peut manipuler des objets très différents — outils rigides, tissus souples, pneus lourds — sans nécessiter de reprogrammation. Un autre avantage inattendu : l’efficacité. Les modèles entraînés peuvent exécuter des actions jusqu’à 1,5 à 2 fois plus vite que les démonstrations humaines, sans réentraînement. Dans certains cas, le robot dépasse même les performances de l’opérateur humain. Cette réussite s’appuie sur une infrastructure robuste combinant simulations haute fidélité et tests physiques. Les nouvelles stratégies sont d’abord testées en simulation, ce qui accélère le développement et réduit les risques de dommages aux prototypes coûteux. Bien que cette avancée soit prometteuse, des défis subsistent : la collecte à grande échelle de données d’entraînement reste coûteuse et complexe. Pourtant, cette collaboration entre Boston Dynamics et le TRI marque une avancée décisive vers des robots humanoïdes capables de s’adapter, d’apprendre et de s’improviser dans des environnements réels — une étape essentielle vers la robotique universelle.
