HyperAI
Back to Headlines

Chinesische Forscher präsentieren MemOS – den ersten AI-Operating-System für menschenähnliches Gedächtnis.

vor 7 Tagen

Chinesische Forscher präsentieren MemOS, das erste „Speichersystem“ für KI, das menschenähnliche Erinnerungsfähigkeit ermöglicht Am 8. Juli 2025 um 14:57 Uhr haben Forschergruppen führender Institutionen wie der Shanghai Jiao Tong University und der Zhejiang University ein neues System namens MemOS vorgestellt. Dieses System wird als das erste „Speichersystem“ für künstliche Intelligenz (KI) bezeichnet, das KI-Systemen eine menschenähnliche persistente Erinnerung und Lernfähigkeit verleiht, die bisher einem grundlegenden Architekturproblem der KI geschuldet war. Die Forscher beschreiben MemOS als ein System, das Speicher als Kernressource behandelt, die geplant, geteilt und über die Zeit hinweg entwickelt werden kann – ähnlich wie herkömmliche Betriebssysteme es mit CPU- und Speicherressourcen tun. Die Veröffentlichung des Papers auf arXiv am 4. Juli 2025 zeigt signifikante Leistungsverbesserungen im Vergleich zu bestehenden Ansätzen, darunter eine Steigerung der zeitlichen Schlussfolgerungskapazität um 159% gegenüber den Speichersystemen von OpenAI. Große Sprachmodelle (LLMs) sind ein wesentlicher Bestandteil der künstlichen allgemeinen Intelligenz (AGI), doch ihre fehlende, gut definierte Speicherverwaltung behindert die Entwicklung von langfristigen Schlussfolgerungen, kontinuierlicher Personalisierung und Wissenskonsistenz. Aktuelle KI-Systeme leiden unter dem sog. „Speicher-Silo“-Problem, das es ihnen unmöglich macht, konsistente, langfristige Beziehungen zu Nutzern aufrechtzuerhalten. Jede Konversation oder Sitzung beginnt quasi von vorne, da die Modelle Präferenzen, angesammeltes Wissen oder Verhaltensmuster nicht über mehrere Interaktionen hinweg speichern können. Dies führt zu einer frustrierenden Benutzererfahrung, bei der ein KI-Assistent zum Beispiel bei der Empfehlung eines Restaurants die vorher erwähnten Ernährungsvorlieben vergisst. Während Lösungen wie Retrieval-Augmented Generation (RAG) versuchen, dieses Problem durch das Abrufen externer Informationen während der Konversationen zu umgehen, argumentieren die Forscher, dass diese Ansätze ohne Lebenszyklussteuerung bleiben. Das Problem geht tiefer als einfache Informationsabfrage – es geht um die Schaffung von Systemen, die tatsächlich aus Erfahrungen lernen und sich entwickeln können, ähnlich wie menschliches Gedächtnis. MemOS stellt einen grundlegend neuen Ansatz durch die Einführung von „MemCubes“ vor – standardisierten SpeicherEinheiten, die verschiedene Arten von Informationen kapseln und über die Zeit hinweg zusammengesetzt, migriert und weiterentwickelt werden können. Diese Einheiten reichen von explizit textbasiertem Wissen bis hin zu parameterebene Anpassungen und Aktivierungszuständen innerhalb des Modells, was ein einheitliches Framework für die Speicherverwaltung schafft, das bisher nicht existiert hat. Tests mit dem LOCOMO-Benchmark, der speicherintensive Schlussfolgerungsaufgaben evaluiert, zeigten, dass MemOS in allen Kategorien konsistent bessere Leistungen erzielte als etablierte Baseline-Systeme. Im Vergleich zur Speicherimplementierung von OpenAI erreichte MemOS eine durchschnittliche Verbesserung von 38.98%, insbesondere in komplexen Schlussfolgerungsszenarien, die die Verknüpfung von Informationen über mehrere Gesprächsdrehungen hinweg erfordern. Das System zeigte auch erhebliche Effizienzsteigerungen, mit bis zu 94% reduzierter Latenz beim ersten Token in bestimmten Konfigurationen durch seinen innovativen KV-Cache-Speicherinjektionsmechanismus. Diese Leistungssteigerungen deuten darauf hin, dass der Speicherflaschenhals eine größere Einschränkung war als bisher angenommen. Durch die Behandlung des Speichers als erstklassige Ressource scheint MemOS Fähigkeiten freizuschalten, die bisher durch architektonische Einschränkungen gebremst wurden. Die Implikationen für die Unternehmens-KI-Einsatz könnten revolutionär sein, insbesondere in Zeiten, in denen Unternehmen zunehmend von KI-Systemen abhängen, die komplexe, anhaltende Beziehungen zu Kunden und Mitarbeitern aufbauen. MemOS ermöglicht die sogenannte „plattformübergreifende Speichermigration“, bei der KI-Speicher über verschiedene Plattformen und Geräte hinweg tragbar sind, was die „Speicher-Inseln“ auflöst, die aktuell den Nutzerkontext in spezifischen Anwendungen fangen. Viele Nutzer erleben heute noch die Frustration, wenn in einer KI-Plattform gewonnene Erkenntnisse nicht in eine andere übertragen werden können. Ein Marketingteam könnte beispielsweise durch Konversationen mit ChatGPT detaillierte Kundenvignetten entwickeln, nur um bei Wechsel zu einem anderen KI-Tool für Kampagnenplanung wieder von vorne beginnen zu müssen. MemOS löst dieses Problem, indem es ein standardisiertes Speicherformat schafft, das zwischen Systemen ausgetauscht werden kann. Das Paper skizziert zudem Potentiale für „bezahlte Speichermodule“, bei denen Experten ihr Wissen in erwerbbare Speichereinheiten packen können. Die Forscher stellen sich Szenarien vor, in denen „ein Medizinstudent während seiner Klinikausbildung lernen möchte, wie man eine seltene Autoimmunerkrankung behandelt. Ein erfahrener Arzt kann diagnostische Heuristiken, Fragestellungswege und typische Fallabläufe in ein strukturiertes Gedächtnis einfügen“ und es in anderen KI-Systemen installieren lassen. Dieses Marktplatzmodell könnte die Art und Weise grundlegend ändern, wie fachspezifisches Wissen in KI-Systemen verteilt und monetisiert wird. Es könnte neue wirtschaftliche Chancen für Experten schaffen, während es den Zugang zu hochwertigem Fachwissen demokratisiert. Für Unternehmen bedeutet dies, dass sie KI-Systeme mit tiefgreifender Expertise in bestimmten Bereichen schneller und kostengünstiger bereitstellen können, ohne die traditionellen Kosten und Zeitaufwendigkeiten für benutzerdefiniertes Training. Der technische Aufbau von MemOS spiegelt Jahrzehnte der Lernprozesse aus der Tradition der Betriebssystementwicklung wider, angepasst an die einzigartigen Herausforderungen der KI-Speicherverwaltung. Das System verwendet eine dreischichtige Architektur: eine Schnittstellenschicht für API-Aufrufe, eine Operationsschicht für die Speicherverwaltung und den Lebenszyklus, sowie eine Infrastrukturschicht für das Speicher- und Governancekonzept. Das MemScheduler-Modul des Systems verwaltet dynamisch verschiedene Speichertypen – von temporären Aktivierungszuständen bis hin zu permanenten Parameteranpassungen – und wählt optimale Speicher- und Abrufstrategien auf Grundlage von Nutzungsmustern und Taskanforderungen. Dies stellt eine bedeutende Abkehr von aktuellen Ansätzen dar, die den Speicher entweder vollständig statisch (in Modellparametern eingebettet) oder vollständig flüchtig (auf die Konversationskontexte begrenzt) behandeln. „Der Fokus verschiebt sich von der Menge an Wissen, die das Modell einmal lernt, zu der Frage, ob es Erfahrungen in strukturierte Erinnerungen umwandeln und diese wiederholt abrufen und rekonstruieren kann“, betonen die Forscher und beschreiben ihre Vision für sogenannte „Mem-Trainings“-Paradigmen. Diese architektonische Philosophie deutet auf eine fundamentale Neuausrichtung hin, bei der KI-Systeme weniger auf massives Vortrainieren und mehr auf dynamisches, erfahrungsbasiertes Lernen ausgerichtet sind. Das Team hat MemOS als Open-Source-Projekt veröffentlicht, wobei der gesamte Code auf GitHub verfügbar ist und Unterstützung für wichtige KI-Plattformen wie HuggingFace, OpenAI und Ollama angeboten wird. Diese Open-Source-Strategie scheint darauf abzuzielen, die Einführung zu beschleunigen und die Communityentwicklung zu fördern, anstatt einen proprietären Ansatz zu verfolgen, der eine weit verbreitete Implementierung einschränken könnte. Projektleiter Zhiyu Li kommentierte im GitHub-Repository: „Wir hoffen, dass MemOS KI-Systeme von statischen Generatoren zu kontinuierlich sich entwickelnden, speichergetriebenen Agenten vorantreibt.“ Die offene Veröffentlichung widerspiegelt einen breiteren Trend in der KI-Forschung, bei dem grundlegende Infrastrukturverbesserungen offen geteilt werden, um das gesamte Ökosystem zu unterstützen. Historisch gesehen hat dieser Ansatz Innovationen in Bereichen wie Deep-Learning-Frameworks beschleunigt und könnte ähnliche Effekte für die Speicherverwaltung in KI-Systemen haben. Die Veröffentlichung tritt in einer Zeit ein, in der große KI-Unternehmen mit den Einschränkungen der aktuellen Speichermethoden kämpfen. OpenAI hat kürzlich Speicherfunktionen für ChatGPT eingeführt, während Anthropic, Google und andere Anbieter mit verschiedenen Formen von persistenter Kontextinformation experimentieren. Allerdings sind diese Implementierungen oft begrenzt im Umfang und fehlen die systematische Herangehensweise, die MemOS bietet. Die zeitliche Abstimmung dieser Forschung deutet darauf hin, dass Speicherverwaltung ein entscheidendes Wettbewerbsfeld in der KI-Entwicklung geworden ist. Unternehmen, die das Speicherproblem effektiv lösen, könnten erhebliche Vorteile in Bezug auf Nutzerbindung und -zufriedenheit erzielen, da ihre KI-Systeme tiefergreifende und nützlichere Beziehungen über die Zeit hinweg aufbauen können. Branchenbeobachter hatten seit längerem Zeit vorhergesagt, dass der nächste große Fortschritt in der KI nicht unbedingt von größeren Modellen oder mehr Trainingsdaten kommen würde, sondern von architektonischen Innovationen, die menschliche kognitive Fähigkeiten besser nachbilden. Speicherverwaltung stellt genau diesen Typ von grundlegendem Fortschritt dar – einen, der neue Anwendungen und Use Cases ermöglicht, die mit den derzeitigen stateless-Systemen nicht möglich sind. Die Entwicklung von MemOS stellt einen Teil eines breiteren Paradigmenwandels in der KI-Forschung dar, der sich in Richtung zustandsbewusster, persistenter Systeme bewegt, die Wissen über die Zeit hinweg anhäufen und entwickeln können – Fähigkeiten, die als essenziell für künstliche allgemeine Intelligenz angesehen werden. Für Technologie-Manager, die KI-Implementierungen bewerten, könnte MemOS eine bedeutende Verbesserung bedeuten, um KI-Systeme zu entwickeln, die Kontext aufrechterhalten und sich mit der Zeit verbessern, anstatt jede Interaktion isoliert zu behandeln. Die Forscher planen, künftig die plattformübergreifende Speicheraustauschbarkeit, selbstentwickelnde Speicherblöcke und die Schaffung eines breiteren „Speichermarkt-Ökosystems“ weiter zu erforschen. Vielleicht ist jedoch der größte Impact von MemOS nicht die spezifische technische Implementierung, sondern der Nachweis, dass das Behandeln des Speichers als erstklassige Ressource erhebliche Verbesserungen in den KI-Fähigkeiten ermöglicht. In einer Branche, die sich bisher auf das Skalieren von Modellgrößen und Trainingsdaten konzentriert hat, zeigt MemOS, dass der nächste Durchbruch möglicherweise durch verbesserte Architektur und nicht durch größere Computer erreicht werden kann.

Related Links