HyperAIHyperAI

Command Palette

Search for a command to run...

Künstliche Intelligenz macht Alltagsgegenstände proaktiv

Ein Stempel, der weiß, wann er gebraucht wird: Forscher der Carnegie Mellon University (CMU) haben mit Hilfe von Künstlicher Intelligenz (KI) Alltagsgegenstände wie einen Heftklammerstapler oder ein Messer in proaktive Helfer verwandelt, die selbstständig reagieren, bevor der Mensch etwas tut. Anstatt auf Befehle zu warten, beobachten diese Objekte menschliches Verhalten mittels Computer Vision und KI-Modelle, prognostizieren Bedürfnisse und bewegen sich dann selbstständig auf einer fahrbaren Plattform, um genau im richtigen Moment zu helfen – etwa indem ein Stapler über den Tisch gleitet, um einer ausgestreckten Hand entgegenzukommen. Die Forschung, geleitet von Professorin Alexandra Ion vom Human-Computer Interaction Institute (HCII) an der CMU, kombiniert große Sprachmodelle (LLMs) mit mobilen Roboterplattformen. Ein an der Decke montierter Camera erfasst die Umgebung und erzeugt eine textbasierte Beschreibung der Szene. Diese wird an ein LLM weitergeleitet, das menschliche Absichten ableitet – beispielsweise, dass jemand gleich ein Dokument heften möchte oder beim Kochen eine Zutat benötigt. Anschließend wird die Vorhersage an das betreffende Objekt übermittelt, das sich dann präzise bewegt, um die Aufgabe zu unterstützen. Die Technologie funktioniert ohne direkte Benutzereingaben und bleibt dabei nahezu unsichtbar im Alltag. Das System wurde auf der ACM Symposium on User Interface Software and Technology 2025 in Busan, Korea, vorgestellt. Ziel ist es, körperliche Interaktionen in Alltagssituationen wie Büroarbeit, Kochen oder Organisation zu erleichtern – ohne dass der Mensch etwas tun muss. „Wir wollen KI-Unterstützung im physischen Raum schaffen, wo sie bisher fehlt“, sagt Violet Han, Doktorandin im Team. „Indem wir vertraute Objekte intelligent machen, erhöhen wir das Vertrauen in die Technologie.“ Ion sieht großes Potenzial für den Einsatz in privaten Haushalten, Krankenhäusern und Fabriken. Ein Beispiel: Nach der Rückkehr von Einkäufen faltet sich automatisch ein Regal aus der Wand, um die Tüten abzustellen, während der Nutzer noch seinen Mantel auszieht. Die Technologie soll so nahtlos in den Alltag integriert sein, dass sie praktisch unsichtbar bleibt – dennoch ständig nützlich. Die Forschung stellt einen Meilenstein im Bereich „unobtrusiver physischer KI“ dar, der darauf abzielt, Technologie nicht durch Aufmerksamkeit, sondern durch Verlässlichkeit und Präzision zu überzeugen. Die Ergebnisse wurden in einer Fachpublikation der ACM veröffentlicht. Industrieexperten loben den Ansatz als bahnbrechend für die Zukunft der menschlichen-technischen Interaktion. Experten für Mensch-Technik-Interaktion betonen, dass die Kombination aus LLMs und physischer Beweglichkeit ein neues Kapitel in der Assistenztechnologie eröffnet. Die CMU-Forschung könnte langfristig zu intelligenten Arbeitsplätzen, selbsthilfeorientierten Haushalten und sichereren industriellen Umgebungen beitragen. Die Interactive Structures Lab ist mittlerweile ein führendes Zentrum für adaptive physische Interfaces, das die Grenzen zwischen digitaler und physischer KI-Unterstützung neu definiert.

Verwandte Links