HyperAIHyperAI

Command Palette

Search for a command to run...

Un nouvel algorithme inspiré du cerveau humain permet aux robots d’anticiper et d’ajuster leurs mouvements avec une précision inédite

L'algorithme BrainBody-LLM permet aux robots de reproduire des plans et des mouvements semblables à ceux des humains. Inspiré du fonctionnement du cerveau humain, qui planifie des actions et ajuste les mouvements du corps en temps réel, ce système repose sur deux modèles de langage à grande échelle (LLM) interagissant en boucle fermée. Le « cerveau-LLM » décompose une tâche complexe, comme « manger des chips sur le canapé », en étapes successives en s'appuyant sur ses connaissances du monde réel. Le « corps-LLM » traduit ensuite chaque étape en commandes exécutables par un robot, en tenant compte des contraintes physiques et de l’environnement. Si une action n’est pas réalisable, le corps-LLM émet un signal d’erreur, permettant au système de réajuster automatiquement son plan. Développé par des chercheurs de l’École d’ingénierie NYU Tandon, cet algorithme a été testé dans des simulations utilisant la plateforme VirtualHome, ainsi qu’en situation réelle avec un bras robotique Franka Research 3. Les résultats montrent une amélioration significative : une augmentation de 17 % du taux de réussite par rapport aux modèles existants, avec une performance moyenne de 84 % sur les tâches testées. La boucle de rétroaction continue permet au système de détecter les erreurs, d’analyser les réponses de l’environnement et de corriger ses plans en temps réel, ce qui renforce sa robustesse face aux imprévus. Contrairement à d’autres approches basées sur les LLM, qui traitent souvent les tâches de manière linéaire, BrainBody-LLM intègre une architecture dynamique où les deux LLM interagissent de manière itérative. Cette caractéristique est cruciale pour des applications réalistes, où les robots doivent s’adapter à des environnements changeants. Les chercheurs soulignent que cette méthode s’inscrit dans une tendance plus large vers l’utilisation des LLM comme agents autonomes capables d’interagir avec des outils externes, comme dans la résolution de problèmes mathématiques ou l’analyse complexe. À l’avenir, l’équipe envisage d’intégrer de nouvelles modalités sensorielles — telles que la vision 3D, la perception de profondeur ou le contrôle des articulations — afin de rendre les mouvements des robots encore plus naturels et précis. Cette avancée pourrait ouvrir la voie à des robots domestiques ou industriels capables de comprendre et d’exécuter des instructions verbales complexes avec une souplesse proche de celle humaine. Les experts du secteur saluent cette approche comme une étape importante vers l’automatisation intelligente. Selon plusieurs spécialistes en robotique cognitive, l’architecture en deux niveaux (cerveau et corps) offre une meilleure transparence et une gestion plus fine des erreurs que les systèmes monolithiques. Des entreprises comme Boston Dynamics, ABB ou encore des startups en robotique d’assistance, pourraient s’inspirer de cette méthode pour améliorer la planification comportementale de leurs robots. Ce travail, publié dans Advanced Robotics Research, illustre non seulement l’évolution des LLM vers des applications concrètes, mais aussi leur potentiel à transformer l’interaction homme-robot.

Liens associés