HyperAI
vor 6 Tagen

MemOS: Ein Speichersystem für KI-Systeme

Zhiyu Li, Shichao Song, Chenyang Xi, Hanyu Wang, Chen Tang, Simin Niu, Ding Chen, Jiawei Yang, Chunyu Li, Qingchen Yu, Jihao Zhao, Yezhaohui Wang, Peng Liu, Zehao Lin, Pengyuan Wang, Jiahao Huo, Tianyi Chen, Kai Chen, Kehang Li, Zhen Tao, Junpeng Ren, Huayi Lai, Hao Wu, Bo Tang, Zhenren Wang, Zhaoxin Fan, Ningyu Zhang, Linfeng Zhang, Junchi Yan, Mingchuan Yang, Tong Xu, Wei Xu, Huajun Chen, Haofeng Wang, Hongkang Yang, Wentao Zhang, Zhi-Qin John Xu, Siheng Chen, Feiyu Xiong
MemOS: Ein Speichersystem für KI-Systeme
Abstract

Große Sprachmodelle (LLMs) sind zu einer wesentlichen Infrastruktur für künstliche allgemeine Intelligenz (AGI) geworden, jedoch behindert ihr Mangel an gut definierten Speichermanagementsystemen die Entwicklung von langfristigem Kontextverstehen, kontinuierlicher Personalisierung und Wissenskonsistenz. Bestehende Modelle basieren hauptsächlich auf statischen Parametern und kurzlebigen kontextuellen Zuständen, was ihre Fähigkeit einschränkt, Benutzervorlieben über längere Zeiträume hinweg zu verfolgen oder Wissen zu aktualisieren. Während Retrieval-Augmentierte Generierung (RAG) externe Kenntnisse in Klartext einbringt, bleibt es eine zustandslose Lösung ohne Lebenszyklussteuerung oder Integration mit persistierenden Darstellungen. Kürzlich wurde die Trainings- und Inferenzkosten von LLMs aus der Perspektive der Speicherhierarchie modelliert, wobei gezeigt wurde, dass die Einführung einer expliziten Speicherschicht zwischen Parameterspeicher und externem Abruf diese Kosten durch die Externalisierung spezifischen Wissens erheblich reduzieren kann. Neben der Recheneffizienz stellen LLMs größere Herausforderungen dar, die sich daraus ergeben, wie Informationen zeitlich und kontextuell verteilt sind. Dies erfordert Systeme, die in der Lage sind, heterogenes Wissen unterschiedlicher Zeitachsen und Quellen zu verwalten. Um dieser Herausforderung gerecht zu werden, schlagen wir MemOS vor, ein Speicherbetriebssystem, das den Speicher als verwaltbare Systemressource betrachtet. Es vereint die Darstellung, Planung und Evolution von Klartext-, Aktivitäts- und Parameterspeichern und ermöglicht kosteneffizientes Speichern und Abrufen. Als grundlegende Einheit kapselt ein MemCube sowohl den Speicherinhalt als auch Metadaten wie Herkunft und Versionierung. MemCubes können im Laufe der Zeit zusammengesetzt, migriert und fusioniert werden, was flexible Übergänge zwischen verschiedenen Speichertypen ermöglicht und den Abruf mit parametersbasierter Lernmethoden verbindet. MemOS etabliert einen speicherzentrierten Systemrahmen, der Kontrollierbarkeit, Plastizität und Evolvierbarkeit für LLMs bringt und somit die Grundlage für kontinuierliches Lernen und personalisierte Modellierung legt.