Command Palette
Search for a command to run...
GLM-4.5: Agentic, Reasoning und Coding (ARC) Grundmodelle
GLM-4.5: Agentic, Reasoning und Coding (ARC) Grundmodelle
Abstract
Wir stellen GLM-4.5 vor, ein quelloffenes Mixture-of-Experts (MoE)-Großsprachmodell mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktivierten Parametern, das über eine hybride Schlussfolgerungsmethode verfügt, die sowohl Denk- als auch direkte Antwortmodi unterstützt. Durch eine mehrstufige Trainingsphase auf 23 Terabyte an Tokens sowie eine umfassende Nachtrainingsphase mit Expertenmodell-Iteration und Verstärkungslernen erreicht GLM-4.5 herausragende Leistungsfähigkeit bei agentenbasierten, schlussfolgernden und Programmieraufgaben (ARC), wobei es auf TAU-Bench 70,1 %, auf AIME 24 91,0 % und auf SWE-bench Verified 64,2 % erreicht. Trotz deutlich geringerer Parameteranzahl als mehrere Konkurrenzmodelle erreicht GLM-4.5 den dritten Platz unter allen bewerteten Modellen und den zweiten Platz bei agentenbasierten Benchmarks. Wir veröffentlichen sowohl GLM-4.5 (355 Milliarden Parameter) als auch eine kompakte Version, GLM-4.5-Air (106 Milliarden Parameter), um die Forschung in den Bereichen Schlussfolgerung und agente-basierte KI-Systeme voranzutreiben. Quellcode, Modelle und weitere Informationen sind unter https://github.com/zai-org/GLM-4.5 verfügbar.