HyperAIHyperAI

Command Palette

Search for a command to run...

IQuest-Coder-V1 Technischer Bericht

Abstract

In diesem Bericht stellen wir die IQuest-Coder-V1-Serie (7B/14B/40B/40B-Loop) vor, eine neue Familie von Code-Größensprachmodellen (Large Language Models, LLMs). Im Gegensatz zu statischen Code-Darstellungen schlagen wir ein mehrstufiges Trainingsschema basierend auf Code-Flüssen vor, das die dynamische Entwicklung von Software-Logik über die verschiedenen Phasen des Verarbeitungspipelines erfasst. Unsere Modelle werden über einen evolutionären Entwicklungsprozess generiert, beginnend mit einer initialen Vortraining-Phase, die aus Code-Fakten, Repository-Daten und Code-Vervollständigungsdaten besteht. Anschließend implementieren wir eine spezialisierte Mittelphase des Trainings, in der sowohl logisches Schlussfolgern als auch agente-basierte Verläufe in einem Kontextumfang von 32k und Repository-Scalability bei 128k-Context integriert werden, um fundierte logische Grundlagen zu schaffen. Die Modelle werden abschließend durch ein nachgelagertes Training mit spezialisierter Codierungsleistung finalisiert, das sich in zwei spezialisierte Pfade aufteilt: den „Denk-Pfad“ (mit reasoning-getriebener Reinforcement-Learning-Optimierung) und den „Anleitungspfad“ (optimiert für allgemeine Unterstützungsaufgaben). Die IQuest-Coder-V1 erreicht state-of-the-art-Leistungen im Vergleich zu konkurrierenden Modellen in zentralen Dimensionen der Code-Intelligenz: agenter Software-Entwicklung, Wettbewerbsprogrammierung und komplexer Werkzeugnutzung. Um Einsatzbeschränkungen zu adressieren, führt die Variante IQuest-Coder-V1-Loop eine rekursive Mechanik ein, die darauf abzielt, das Gleichgewicht zwischen Modellkapazität und Bereitstellungs-Fläche zu optimieren und so einen architektonisch verbesserten Ansatz für eine effiziente Leistungs- und Effizienz-Optimierung zu bieten. Wir sind überzeugt, dass die Veröffentlichung der IQuest-Coder-V1-Serie – inklusive der vollständigen, transparenten Kette an Checkpoints von der Vortraining-Basis bis hin zu den finalen Denk- und Anleitungsmodellen – die Forschung im Bereich autonomer Code-Intelligenz und realweltbasierte agente-Systeme voranbringen wird.Abbildung 1. Leistung der IQuest-Coder-V1 auf verschiedenen Benchmarks. Der Score für LiveCodeBench v6 stammt vom IQuest-Coder-V1-40B-Loop-Thinking-Modell, die übrigen Werte wurden vom IQuest-Coder-V1-40B-Loop-Instruct-Modell ermittelt. Die orange gestrichelte Linie zeigt den Durchschnittswert der ausgewählten Modelle an.


Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp