HyperAIHyperAI

Command Palette

Search for a command to run...

vor 15 Tagen

Agentenspezifische Kontextgestaltung: Evolvierte Kontexte für selbstverbessernde Sprachmodelle

Agentenspezifische Kontextgestaltung: Evolvierte Kontexte für selbstverbessernde Sprachmodelle

Abstract

Anwendungen großer Sprachmodelle (LLM), wie beispielsweise Agenten und domänenspezifische Reasoning-Systeme, stützen sich zunehmend auf die Anpassung des Kontexts – also die Modifikation von Eingaben durch Anweisungen, Strategien oder Beweise, anstatt Gewichtsaktualisierungen vorzunehmen. Bisherige Ansätze verbessern die Benutzerfreundlichkeit, leiden jedoch oft unter dem sogenannten „Brevity-Bias“, bei dem tiefgehende Domänenkenntnisse durch knappe Zusammenfassungen verloren gehen, sowie unter dem Phänomen des „Context Collapse“, bei dem sich wiederholte Umformulierungen im Laufe der Zeit an Details abnutzen. Aufbauend auf dem adaptiven Gedächtnis, das von Dynamic Cheatsheet eingeführt wurde, stellen wir ACE (Agentic Context Engineering) vor, einen Rahmen, der Kontexte als sich entwickelnde Handlungsanleitungen begreift, die durch einen modularen Prozess aus Generierung, Reflexion und Kuratierung Strategien schrittweise ansammeln, verfeinern und strukturieren. ACE verhindert den Kontextkollaps durch strukturierte, inkrementelle Aktualisierungen, die detaillierte Wissensinhalte bewahren und mit langen Kontextmodellen skalieren. In einer Vielzahl von Agenten- und domänenspezifischen Benchmarks optimiert ACE Kontexte sowohl offline (z. B. System-Prompts) als auch online (z. B. Agenten-Gedächtnis) und übertrifft dabei konsistent starke Baselines: +10,6 % bei Agenten und +8,6 % in der Finanzdomäne, wobei die Adaptationslatenz und die Rollout-Kosten signifikant reduziert werden. Besonders hervorzuheben ist, dass ACE effektiv ohne gelabelte Überwachung funktioniert, sondern stattdessen natürliche Ausführungsfeedbacks nutzt. Auf der AppWorld-Rangliste erreicht ACE die Spitzenposition im Gesamtdurchschnitt und übertrifft den führenden Produktionsagenten sogar bei der anspruchsvolleren Test-Challenge-Unterteilung – und das trotz Verwendung eines kleineren Open-Source-Modells. Diese Ergebnisse zeigen, dass umfassende, sich stetig weiterentwickelnde Kontexte skalierbare, effiziente und selbstverbessernde LLM-Systeme mit geringem Overhead ermöglichen.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Agentenspezifische Kontextgestaltung: Evolvierte Kontexte für selbstverbessernde Sprachmodelle | Forschungsarbeiten | HyperAI