HyperAIHyperAI

Command Palette

Search for a command to run...

vor einem Monat

LongCodeZip: Komprimierung langer Kontexte für Code-Sprachmodelle

Yuling Shi Yichun Qian Hongyu Zhang Beijun Shen Xiaodong Gu

LongCodeZip: Komprimierung langer Kontexte für Code-Sprachmodelle

Abstract

Die Generierung von Code unter langen Kontexten wird zunehmend kritisch, da große Sprachmodelle (Large Language Models, LLMs) zunehmend dazu verpflichtet werden, über umfangreiche Informationen innerhalb einer Codebasis zu reasoning. Obwohl jüngste Fortschritte es Code-LLMs ermöglichen, lange Eingaben zu verarbeiten, bleiben hohe API-Kosten und hohe Generierungsverzögerungen erhebliche Engpässe. Bestehende Techniken zur Kontextkompression, wie beispielsweise LLMLingua, erzielen für allgemeinen Text vielversprechende Ergebnisse, ignorieren jedoch spezifische Strukturen und Abhängigkeiten im Code, was zu suboptimalen Leistungen bei Programmieraufgaben führt. In diesem Paper stellen wir LongCodeZip vor, einen neuartigen, plug-and-play-fähigen Framework zur Codekompression, der speziell für Code-LLMs entwickelt wurde. LongCodeZip setzt eine zweistufige Strategie um: (1) grobgranulare Kompression, bei der mittels bedingter Perplexität bezüglich der Anweisung funktionale Abschnitte identifiziert und bewertet werden, wobei nur die relevantesten Funktionen beibehalten werden; und (2) feingranulare Kompression, bei der die verbleibenden Funktionen basierend auf der Perplexität in Blöcke segmentiert und unter einer adaptiven Token-Budget-Bedingung eine optimale Teilmenge ausgewählt wird, um die Relevanz zu maximieren. Evaluierungen an mehreren Aufgaben, darunter Code-Vervollständigung, Zusammenfassung und Fragebeantwortung, zeigen, dass LongCodeZip konsequent die Baseline-Methoden übertrifft und dabei bis zu einem Kompressionsverhältnis von 5,6:1 erreicht, ohne die Aufgabenleistung zu beeinträchtigen. Durch effektive Reduktion der Kontextgröße unter gleichzeitiger Erhaltung wesentlicher Informationen ermöglicht LongCodeZip es LLMs, besser in realen, großskaligen Code-Szenarien zu skalieren und trägt somit zur Effizienzsteigerung und Weiterentwicklung der Fähigkeiten von Code-Intelligenz-Anwendungen bei.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
LongCodeZip: Komprimierung langer Kontexte für Code-Sprachmodelle | Forschungsarbeiten | HyperAI