HyperAIHyperAI

Command Palette

Search for a command to run...

Un robot conçoit et assemble des meubles sur commande : une avancée majeure pour la fabrication intelligente et personnalisée

Une équipe de recherche du MIT a développé un système innovant permettant à un robot, guidé par une intelligence artificielle, de concevoir et d’assembler des objets complexes à partir de pièces préfabriquées, simplement à partir d’une commande orale ou écrite comme « Robot, fais-moi une chaise ». Ce système repose sur un modèle vision-langage (VLM), une IA générative pré-entraînée pour comprendre à la fois les images et les descriptions textuelles. Lorsqu’un utilisateur fournit une requête textuelle et une image de référence, le modèle analyse la géométrie de l’objet et détermine où placer les composants fonctionnels — comme les panneaux pour le siège ou le dossier d’une chaise — en s’appuyant sur des milliers d’exemples antérieurs. Il attribue ainsi des étiquettes précises aux surfaces du modèle 3D, comme « siège » ou « dossier », et génère une version finale du maillage 3D enrichie de détails fonctionnels. Ce processus intègre une collaboration humain-IA : l’utilisateur peut affiner la conception en donnant des instructions précises, par exemple « n’utilise les panneaux que sur le dossier ». Cette boucle de feedback permet de personnaliser le résultat selon les préférences individuelles, tout en réduisant l’espace de conception à explorer. Une étude utilisateur a montré que plus de 90 % des participants préféraient les objets générés par ce système à ceux produits par des algorithmes classiques, comme ceux qui placent les panneaux aléatoirement ou uniquement sur les surfaces horizontales orientées vers le haut. Le système est particulièrement efficace car il combine vision et raisonnement fonctionnel : le VLM agit comme les yeux et le cerveau du robot, capable de comprendre non seulement la forme, mais aussi le rôle d’un composant. Par exemple, il reconnaît que le siège et le dossier doivent avoir des panneaux pour permettre de s’asseoir ou de s’appuyer. Il peut même expliquer ses choix, démontrant une compréhension fonctionnelle des objets. Les pièces utilisées sont préfabriquées, réutilisables et assemblables de manière modulaire, ce qui ouvre la voie à une fabrication locale, durable et rapide. Cette approche pourrait révolutionner la conception de pièces complexes dans des domaines comme l’aérospatial ou l’architecture, mais aussi permettre à des particuliers de fabriquer du mobilier à la maison sans dépendre des chaînes de production centralisées. Les chercheurs, dirigés par Alex Kyaw (doctorant au MIT), Richa Gupta, Faez Ahmed, Lawrence Sass, Randall Davis (MIT) et des collaborateurs de Google DeepMind et Autodesk Research, ont présenté leurs résultats à la conférence NeurIPS. À long terme, ils souhaitent étendre le système à des matériaux variés (verre, métal) et à des composants mobiles (charnières, engrenages), rendant les objets plus fonctionnels. Leur objectif ultime est de rendre les outils de conception accessibles à tous, en transformant les idées en objets physiques rapidement, facilement et de manière écologique.

Liens associés

Un robot conçoit et assemble des meubles sur commande : une avancée majeure pour la fabrication intelligente et personnalisée | Articles tendance | HyperAI