HyperAIHyperAI
vor 3 Monaten

Qwen2 Technischer Bericht

An Yang, Baosong Yang, Binyuan Hui, Bo Zheng, Bowen Yu, Chang Zhou, Chengpeng Li, Chengyuan Li, Dayiheng Liu, Fei Huang, Guanting Dong, Haoran Wei, Huan Lin, Jialong Tang, Jialin Wang, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Ma, Jin Xu, Jingren Zhou, Jinze Bai, Jinzheng He, Junyang Lin, Kai Dang, Keming Lu, Keqin Chen, Kexin Yang, Mei Li, Mingfeng Xue, Na Ni, Pei Zhang, Peng Wang, Ru Peng, Rui Men, Ruize Gao, Runji Lin, Shijie Wang, Shuai Bai, Sinan Tan, Tianhang Zhu, Tianhao Li, Tianyu Liu, Wenbin Ge, Xiaodong Deng, Xiaohuan Zhou, Xingzhang Ren, Xinyu Zhang, Xipin Wei, Xuancheng Ren, Yang Fan, Yang Yao, Yichang Zhang, Yu Wan, Yunfei Chu, Zeyu Cui, Zhenru Zhang, Zhihao Fan
Qwen2 Technischer Bericht
Abstract

Dieser Bericht stellt die Qwen2-Serie vor, die neueste Erweiterung unserer großen Sprachmodelle und großen multimodalen Modelle. Wir veröffentlichen eine umfassende Reihe grundlegender und instruktionsangepasster Sprachmodelle mit einem Parameterumfang von 0,5 bis 72 Milliarden, die sowohl dichte Modelle als auch ein Mixture-of-Experts-Modell umfassen. Qwen2 übertrifft die meisten vorherigen Open-Weight-Modelle, einschließlich seines Vorgängers Qwen1.5, und zeigt wettbewerbsfähige Leistungsfähigkeit gegenüber proprietären Modellen in einer Vielzahl von Benchmarks im Bereich Sprachverständnis, Sprachgenerierung, mehrsprachige Kompetenz, Codierung, Mathematik und Schlussfolgerung.Das Flaggschiff-Modell, Qwen2-72B, zeigt bemerkenswerte Leistung: 84,2 bei MMLU, 37,9 bei GPQA, 64,6 bei HumanEval, 89,5 bei GSM8K und 82,4 bei BBH als Basis-Sprachmodell. Die instruktionsangepasste Variante, Qwen2-72B-Instruct, erreicht 9,1 bei MT-Bench, 48,1 bei Arena-Hard und 35,7 bei LiveCodeBench. Darüber hinaus zeichnet sich Qwen2 durch starke multilinguale Fähigkeiten aus und beherrscht etwa 30 Sprachen, darunter Englisch, Chinesisch, Spanisch, Französisch, Deutsch, Arabisch, Russisch, Koreanisch, Japanisch, Thai, Vietnamesisch und weitere, was seine Vielseitigkeit und globale Reichweite unterstreicht.Um Innovation und Zugänglichkeit in der Gemeinschaft zu fördern, stellen wir die Modellgewichte von Qwen2 öffentlich auf Hugging Face¹ und ModelScope² zur Verfügung, sowie ergänzende Materialien wie Beispielcode auf GitHub³. Diese Plattformen enthalten zudem Ressourcen für Quantisierung, Fine-Tuning und Bereitstellung, was eine breite Palette an Anwendungen und Forschungsprojekten ermöglicht.