中国初の公開AI企業、GLM-5を正式発表 国内チップで訓練された先端大規模モデルがベンチマークで首位独走
2026年2月11日、中国のAI企業Zhipu AI(Z.ai)は、新たな先端大規模言語モデル「GLM-5」を正式にリリースした。このモデルは、パラメータ数7440億(744B)のMixture-of-Experts(MoE)構造で、1トークンあたり400億(40B)のパラメータが活性化される。前バージョンのGLM-4.5(355B)と比べて2倍の規模拡大を実現し、学習データも23兆トークンから28.5兆トークンへと増加。長文処理に適した「DeepSeek Sparse Attention(DSA)」を採用し、最大20万トークンのコンテキスト窓をサポート。MITライセンスでHugging Faceに公開され、Z.ai APIやOpenRouter経由でも利用可能。 GLM-5は、人工分析(Artificial Analysis)のオープンモデルランキングで1位を獲得し、LMArenaのText Arenaでも総合11位(スコア1452)にランクイン。SWE-bench Verifiedでは77.8%、AIME 2026では92.7%、GPQA-Diamondでは86.0%を達成。特に「Vending Bench 2」や「BrowseComp」など、長期計画や実行能力を測るベンチマークで顕著な進歩を示しており、「Vibe Coding」から「エージェント型エンジニアリング」への転換を実証した。 重要な点として、GLM-5は米国制裁下にある中国企業として、NVIDIA製GPUに依存せず、HuaweiのAscendチップとMindSporeフレームワークで完全にトレーニングされた。また、インフェンスはMoore Threads、Cambricon、Kunlunxinなどの国内チップでも動作可能で、中国の国内コンピュートスタックの実用化を示す象徴的な成果となった。 リリース前には、OpenRouterが「Pony Alpha」という匿名モデルをリリース。20万トークンのコンテキストを備え、1日で400億トークンを処理。コミュニティの調査でZhipuのGLM-5であることが判明し、実機テストの役割を果たしたとされる。 価格は入力100万トークンあたり1.00ドル、出力は3.20ドル。Claude Opus 4.6と比較して入力は5倍、出力はほぼ8倍安価だが、744Bの規模から、一般企業では利用困難。推論には少なくとも8台のH200/H20が必要で、99%のユーザーはAPI経由が現実的。 Zhipuは1月8日に香港市場で上場し、71億ドルの評価額で世界初の公開されている先端モデル企業となった。一方、OpenAIやAnthropicは依然として非公開。また、GLM-5はマルチモーダル対応を欠く点が課題。Moonshot AIのKimi K2.5などに比べ、視覚情報処理ができない。初期ユーザーからは「状況認識力がClaudeに劣る」との声も。ベンチマーク手法の透明性についても、独立検証の必要性が指摘されている。 GLM-5は、中国の技術自立と国際競争力の象徴である。AIの「開発・運用の自律性」が、技術だけでなく地政学的文脈でも重要視される時代の到来を示している。
