HyperAIHyperAI

Command Palette

Search for a command to run...

AI透明度全体ダウン!IBMがトップ、xAI・Midjourneyが最下位

スタンフォード大学を中心とする研究チームが発表した『2025年基礎モデル透明度指数』(FMTI)によると、AIモデルの透明性は全体的に低下傾向にあり、業界全体で「透明度の集団的後退」が顕在化している。同報告は2023年以降、3回目となる年次評価で、13の主要AI企業を対象に、データ使用、訓練プロセス、展開後の影響など、多角的な指標で透明性を数値化。2025年の平均スコアは40点(満点100点)と、2024年の58点から大幅に低下し、2023年の水準に近づいた。 この中で、IBMが95点でトップを記録。同社は訓練データの詳細、計算リソース、影響評価の透明性を高め、自らの透明性報告を公表し、EUの一般AI法の行動指針に署名するなど、規制対応姿勢が顕著。一方、マスカクスのxAIとMidjourneyは14点で最下位。両社とも、訓練データの出典、使用方法、展開後の影響に関する情報が極めて限られている。 中国企業のDeepSeekとアリババも、使用データ、影響、展開後監視の3項目でスコア0点を記録。これは「情報が全くない」のではなく、報告基準に沿っていないため得点がゼロとなるという意味であり、透明性の指標は「開源」とは別物である。清华大学の邱寒准教授は、「透明度は開源とは異なる。報告基準に従って情報が提示されなければ、0点になる。性能と透明度は直接関係しない」と指摘。実際、透明度最高のIBMのGranite 3.3は、性能面では最高峰とは言えない。 透明性の低さは、偏見やデータ利用の不正、安全リスクの検出困難を招く。深刻な事故が発生すれば、過剰な規制が導入され、技術進展が阻害されるリスクもある。報告は、政策立案者が透明性の要求を強化する中で、企業の行動を可視化し、適切な規制介入を促す必要性を訴えている。 結論として、透明性は「開示の有無」ではなく、「評価可能で、検証可能、責任が明確に追える」状態を意味する。今後の課題は、企業が完全に開示しなくても、モデルの行動が測定可能で、声明が検証可能、安全が確保される仕組みの構築にある。透明性の向上は、AIの信頼性と持続可能性を支える基盤となる。

関連リンク

AI透明度全体ダウン!IBMがトップ、xAI・Midjourneyが最下位 | 人気の記事 | HyperAI超神経