KI-System baut Möbel auf Wunsch: Mensch und Roboter gestalten gemeinsam
Ein Team von Forschern der MIT-Abteilungen für Elektrotechnik und Informatik (EECS) sowie Architektur hat ein neuartiges System entwickelt, das es ermöglicht, komplexe Objekte wie Stühle oder architektonische Elemente durch einfache Sprachbefehle und künstliche Intelligenz zu entwerfen und zu bauen. Der Kern des Systems ist ein visuell-sprachliches Modell (VLM), das aus Bildern und Texten lernt, wie sich Komponenten eines Objekts zusammensetzen müssen. Ein Nutzer gibt einen einfachen Textbefehl wie „Robot, make me a chair“ ein und liefert zusätzlich ein AI-generiertes Bild eines Stuhls. Das VLM analysiert das Bild, erkennt strukturelle und panelartige Teile und entscheidet basierend auf Funktionalität – wie Sitzen oder Lehen –, wo welche Oberflächen mit Panelen versehen werden müssen. Diese Entscheidungen werden als Textlabels wie „Seat“ oder „Backrest“ ausgegeben und auf die 3D-Mesh-Geometrie übertragen. Der Nutzer bleibt aktiv im Prozess: Er kann das Ergebnis durch neue Anweisungen wie „Nur Rückenlehne mit Paneelen“ anpassen, was die menschliche Kontrolle und den persönlichen Bezug zum Design sichert. Im Vergleich zu zwei anderen Ansätzen – einem Algorithmus, der Panels nur auf nach oben gerichtete Flächen setzt, und einem zufälligen Ansatz – zeigte eine Nutzerstudie, dass über 90 Prozent der Teilnehmer die Designs des neuen Systems bevorzugten. Dies liegt daran, dass das System funktionale und geometrische Zusammenhänge versteht, wie beispielsweise, dass die Sitzfläche und die Rückenlehne Oberflächen benötigen, auf denen man sitzen oder lehnen kann. Die Forscher konnten sogar erklären, warum das Modell bestimmte Entscheidungen traf – ein Hinweis darauf, dass es nicht nur zufällig, sondern nach funktionalem Verständnis arbeitet. Das System nutzt vorgefertigte, wiederverwendbare Bauteile, die von einem Roboter montiert werden können und sich in verschiedene Konfigurationen umwandeln lassen. Dies macht es besonders geeignet für schnelle Prototypen in Bereichen wie Luft- und Raumfahrt oder Architektur, aber auch für lokale Produktion von Möbeln zu Hause – ohne große Transportwege und damit nachhaltiger. Der führende Autor Alex Kyaw betont, dass das Ziel sei, eine natürliche, menschliche Kommunikation mit Robotern und KI zu ermöglichen, „als würden wir gemeinsam etwas erschaffen“. Die Arbeit wurde auf der Conference on Neural Information Processing Systems vorgestellt und umfasst Kooperationen mit Google DeepMind und Autodesk Research. Industrieexperten sehen in diesem Ansatz einen bedeutenden Schritt hin zu einer demokratisierten, benutzerzentrierten Produktionskultur. Das System könnte den Zugang zu Design- und Fertigungstechnologien erheblich senken und gleichzeitig Nachhaltigkeit fördern. Die Zukunft sieht die Forscher darin, komplexere Materialien wie Glas und Metall zu integrieren und bewegliche Teile wie Gelenke oder Zahnräder einzubeziehen, um funktionell vielseitigere Objekte zu schaffen. Als Leiter des Projekts, Professor Randall Davis, fasst es zusammen: „Wir wollen Ideen schnell, zugänglich und nachhaltig in physische Objekte verwandeln.“
