カリフォルニア州、AI安全法案SB 53にアントロピックが正式支持
カリフォルニア州の先進AI安全法案「SB 53」に、AI企業アントロピックが正式に支持を表明した。この法案は、スコット・ウィーナー上院議員が提唱し、世界で初めて大規模AIモデル開発者に対して透明性を義務づけるもの。アントロピックは、連邦政府による統一的な規制が望ましいと考えつつも、現実には技術の進展が政治的合意を待てないとして、SB 53の導入を「前向きな道筋」と評価した。同社は、AIの安全な発展を「今、慎重に進める」か「将来、反応的に対応する」かの選択肢に直面しており、SB 53は前者の実現を可能にするとしている。 SB 53が成立すれば、OpenAIやGoogle、xAI、アントロピックなど世界最大のAI開発企業は、強力なAIモデルを公開する前に安全対策フレームワークを策定し、公開される安全報告書を提出しなければならない。また、安全上の懸念を内部で報告する従業員を保護する条項も含まれる。法案は、50人以上の死亡または10億ドル以上の損害を引き起こす「重大リスク」を対象とし、生物兵器の開発支援やサイバー攻撃の強化といった極端な危険を禁じる。近年のAIリスク対策の焦点が深層偽造や洗脳的生成に偏っている中、SB 53は「最悪の事態」への対応に特化している。 カリフォルニア州上院は前回の議論でSB 53を可決しているが、最終投票を残しており、ガビン・ニューサム知事の判断が鍵となる。知事は過去に類似法案SB 1047を拒否しており、保守派やシリコンバレーの企業グループ(CTA、Chamber for Progressなど)も反対を強めている。一部の企業や投資家は、州レベルの規制が連邦法に違反する可能性(商業条項の問題)を指摘するが、アントロピックの共同創設者ジャック・クラーク氏は、「連邦規制が待たれる中、現実的な基準を提示する法案」としてSB 53の意義を強調した。 専門家らは、SB 53が前回のSB 1047よりも技術的現実に配慮し、立法的な自制心があると評価している。特に、スタンフォード大学のフェイ・フェイ・リー教授らが率いる知事諮問パネルの影響を受け、実務に即した内容になっていると指摘される。現時点でOpenAIやGoogle DeepMind、アントロピックは自主的に安全報告を公表しているが、法的義務がないため、実行が不十分なケースも。SB 53はこうした自主的取り組みを法的義務に変える。また、9月に第三者監査を求める条項が削除され、企業の負担を軽減する修正が加えられた点も、法案の前進を示している。 この支持表明は、AI企業が安全規制に前向きに向き合う動きの象徴であり、州レベルの規制が連邦政策の足がかりになる可能性を示している。
