米スタートアップが中国モデルを基に「最強」开源モデル発表 後学習技術で性能飛躍
米国シリコンバレーのスタートアップ、Deep Cogitoが、最新の開発モデル「Cogito v2.1 671B」を発表し、自社が「米国製の最高のオープンソース大規模言語モデル」を生み出したと宣言した。このモデルは、GPQA DiamondテストでGPT-5に迫る性能を示し、多言語MMLUではClaude Sonnet 4.5を上回る結果を記録。数学とコード生成能力においても、MetaのLlamaシリーズを凌駕した。 しかし、その実態は明確だった。モデルのHugging Face設定ファイルには「base_model: deepseek-ai/DeepSeek-V3-Base」と明記されており、671Bというパラメータ規模もDeepSeek-V3と一致。CEOのDrishan Arora氏は、この事実を否定せず、自ら「DeepSeek-V3-Baseをベースにした分岐(fork)である」と認めた。 彼は、現代のAI開発では「事前学習(Pre-training)」が既に「電力のような汎用商品」になり、真の差は「事後学習(Post-training)」の質にあると説明。自社が開発した「前衛的後訓練スタック」は、強化学習と反復蒸留拡張(IDA)技術を駆使し、数百のGPUノードで大規模な最適化を実施。その結果、同等の推論性能でも、GoogleのGemini 2.5 Proに比べて平均4894トークンで済むなど、推論効率の大幅な向上を達成。 数学テストMATH-500では98.57%のスコアを記録し、元モデルのDeepSeek v3.2(97.87%)をわずかに上回り、Llama 4 Scoutを大きくリード。コード修復タスクSWE-Bench Verifiedでも高い解決率を示した。 技術的成果は否定できない。後訓練による高度な最適化と、効率性の追求は、実用的な進歩である。しかし、中国企業のDeepSeekが提供する基盤モデルをもとに、米国企業が「自社開発」と称して世界最強を宣言するのは、誇張に近い。特に、モデルに特定の意識形態的バイアスを組み込む動きは、オープンソースの精神に反する。 この事例は、中国のオープンソースAIモデルが世界の開発基盤としての価値を確立していることを示している。米国企業が高コストなゼロからの学習を避け、現有の優れたモデルを活用するのは現実的で、技術競争の本質は「国」ではなく「協働と革新」にある。真の技術的自信とは、透明性と誠実な貢献にある。
