Qwen2 Technischer Bericht

Dieser Bericht stellt die Qwen2-Serie vor, die neueste Erweiterung unserer großen Sprachmodelle und großen multimodalen Modelle. Wir veröffentlichen eine umfassende Reihe grundlegender und instruktionsangepasster Sprachmodelle mit einem Parameterumfang von 0,5 bis 72 Milliarden, die sowohl dichte Modelle als auch ein Mixture-of-Experts-Modell umfassen. Qwen2 übertrifft die meisten vorherigen Open-Weight-Modelle, einschließlich seines Vorgängers Qwen1.5, und zeigt wettbewerbsfähige Leistungsfähigkeit gegenüber proprietären Modellen in einer Vielzahl von Benchmarks im Bereich Sprachverständnis, Sprachgenerierung, mehrsprachige Kompetenz, Codierung, Mathematik und Schlussfolgerung.Das Flaggschiff-Modell, Qwen2-72B, zeigt bemerkenswerte Leistung: 84,2 bei MMLU, 37,9 bei GPQA, 64,6 bei HumanEval, 89,5 bei GSM8K und 82,4 bei BBH als Basis-Sprachmodell. Die instruktionsangepasste Variante, Qwen2-72B-Instruct, erreicht 9,1 bei MT-Bench, 48,1 bei Arena-Hard und 35,7 bei LiveCodeBench. Darüber hinaus zeichnet sich Qwen2 durch starke multilinguale Fähigkeiten aus und beherrscht etwa 30 Sprachen, darunter Englisch, Chinesisch, Spanisch, Französisch, Deutsch, Arabisch, Russisch, Koreanisch, Japanisch, Thai, Vietnamesisch und weitere, was seine Vielseitigkeit und globale Reichweite unterstreicht.Um Innovation und Zugänglichkeit in der Gemeinschaft zu fördern, stellen wir die Modellgewichte von Qwen2 öffentlich auf Hugging Face¹ und ModelScope² zur Verfügung, sowie ergänzende Materialien wie Beispielcode auf GitHub³. Diese Plattformen enthalten zudem Ressourcen für Quantisierung, Fine-Tuning und Bereitstellung, was eine breite Palette an Anwendungen und Forschungsprojekten ermöglicht.