AI企業の透明性が低下、平均スコア40に スタンフォード主導の調査で深刻な課題浮上
2025年の「基礎モデル透明性指数(FMTI)」が発表され、AI企業の透明性がさらに低下していることが明らかになった。スタンフォード大学をはじめとするスタンフォード、バークレー、プリンストン、MITの研究チームが実施した調査では、13の主要AI企業の平均スコアが100点満点中40点にとどまり、前年から大幅に低下した。これは、AIが社会に深く浸透する中で、その開発企業がどれほど情報を開示しているかという点で、全体的に深刻な後退を示している。 同指数は、トレーニングデータ、リスク管理、経済的影響など15の主要項目を評価し、企業の透明性を測定している。スコアは大きく分かれ、トップ層(約75点)、中間層(約35点)、低スコア層(約15点)の3つのグループに分かれた。IBMが95点で歴代最高を記録し、外部研究者がトレーニングデータを再現できるように詳細な情報を開示するなど、業界の先駆的取り組みを見せた。一方、xAIとMidjourneyはいずれも14点と極めて低く、モデル構築に使ったデータやリスク対策、環境影響について一切情報を開示していない。 特に問題なのは、エネルギー消費、二酸化炭素排出、水使用といった環境影響に関する情報が、10社(AI21 Labs、アリババ、Amazon、Anthropic、DeepSeek、Google、Midjourney、Mistral、OpenAI、xAI)が一切提供していないことだ。大規模データセンターの拡大が電力網に負荷をかけ、電力価格の上昇を引き起こしている中、こうした情報の欠如は社会的リスクを高めている。 また、企業の順位も大きく変動。Metaは前年60点から31点へ、Mistralは55点から18点へと急落。OpenAIも2023年の2位から2位下位に後退。一方、AI21 Labsは2023年の最下位から1位に躍進。MetaはLlama 4の技術報告書を公表せず、GoogleもGemini 2.5のモデルカードや技術報告書の公開が遅れたことで、英国議会から批判を受けた。 透明性の低下は、企業の自主的な取り組みに依存しているため、制度的なインセンティブが不足していることを示している。米国カリフォルニア州や欧州連合では、先端AIのリスクに関する透明性を義務づける法規制が施行されている。白宮前AIアドバイザーのディーン・ボール氏も、透明性をAI規制の基本的要素と提言。FMTIは、政策立案者にとって、AI産業の情報状況を把握し、改善が難しい分野を特定するための重要な指標となる。
