HyperAIHyperAI

Command Palette

Search for a command to run...

vor 2 Monaten

ArcMemo: Abstraktes Schlussfolgern durch Zusammensetzung mit lebenslanger LLM-Speicherung

Matthew Ho Chen Si Zhaoxiang Feng Fangxu Yu Zhijian Liu et al

ArcMemo: Abstraktes Schlussfolgern durch Zusammensetzung mit lebenslanger LLM-Speicherung

Abstract

Während die Skalierung während der Inferenzphase es großen Sprachmodellen ermöglicht, zunehmend längere und leistungsfähigere Schlussfolgerungstrajektorien durchzuführen, werden die dabei gewonnenen Muster und Erkenntnisse unmittelbar verworfen, sobald das Kontextfenster für eine neue Anfrage zurückgesetzt wird. Externe Speicherung ist eine natürliche Möglichkeit, solche Erkenntnisse zu persistieren, und jüngste Arbeiten haben klare Vorteile für auf Schlussfolgerung ausgerichtete Aufgaben gezeigt. Wir sehen eine Chance, solche Speicherung weitaus allgemeiner nutzbar und skalierbar zu gestalten, indem wir über spezifische, instanzbasierte Speichereinträge hinausgehen (z. B. exakte Anfrage-Antwort-Paare oder Zusammenfassungen, die eng an den ursprünglichen Problemkontext gekoppelt sind), hin zu konzeptbasiertem Speichern: wiederverwendbaren, modularen Abstraktionen, die aus Lösungstrajektorien abgeleitet und in natürlicher Sprache gespeichert werden. Für zukünftige Anfragen werden relevante Konzepte selektiv abgerufen und in die Eingabeprompt integriert, was eine kontinuierliche Lernfähigkeit zur Testzeit ermöglicht, ohne Gewichtsaktualisierungen vorzunehmen. Unser Ansatz führt neue Strategien zur Abstraktion von Erkenntnissen aus Ausführungen (rollouts) und zur Abfrage von Speichereinträgen für neue Anfragen ein, was die Wiederverwendbarkeit fördert und eine Erweiterung des Speichers durch zusätzliche Erfahrungen ermöglicht. Auf der anspruchsvollen ARC-AGI-Benchmarkaufgabe erzielt unsere Methode gegenüber einer starken Baseline ohne Speicher eine relative Verbesserung um 7,5 %, wobei die Leistung weiterhin mit steigender Inferenzrechenleistung skaliert. Wir stellen fest, dass konzeptbasierte Speicherung die konsistenteste Speicherarchitektur darstellt und die Baseline bei allen getesteten Skalen der Inferenzrechenleistung übertrifft. Zudem bestätigen wir, dass das dynamische Aktualisieren des Speichers während der Testzeit eine leistungsfähigere Lösung ergibt als eine identische, aber fixe Speicherstruktur mit zusätzlichen Versuchen – dies stützt die Hypothese, dass das Lösen weiterer Probleme und die Abstraktion weiterer Muster im Speicher eine Art Selbstverbesserung ermöglicht, die zu weiteren Lösungen führt. Der Quellcode ist unter dieser URL verfügbar.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
ArcMemo: Abstraktes Schlussfolgern durch Zusammensetzung mit lebenslanger LLM-Speicherung | Forschungsarbeiten | HyperAI