カリフォルニア、再びAI大手規制へ:透明性と第三者評価を強化する新方針提案
カリフォルニア州がAI大手を規制する新たな取り組みを発表 昨年9月、カリフォルニア州上院で議決され、 Gavin Newsom 州知事が署名を拒否した「SB 1047」は大きな注目を集めました。この法案は、特に1億ドル以上の訓練費用が必要な大規模AIモデルの製造元に対して、特定のリスクに対するテストを求めていました。法案の廃棄に対し、告発者の間では不満が高まった一方、大手テクノロジー企業からは喜ばれました。しかし、話はそこになかった。Newsom 知事は、法案が厳しい一方で一律的な規制だったため、一見の下、AIの第一人者たちに新たな代替案を提案するよう依頼しました。 火曜日、彼らが出した「フロンティア政策に関するカリフォルニア報告書」が公表されました。「AI能力」、特に大規模モデルにおいては急速に向上しており、独立した第三者評価の必要性がさらに高まったと報告は指摘。新フレームワークには透明性と第三者による監視強化が求められています。 本報告書は、フロンティアAIの進歩が農業、バイオテクノロジー、クリーンテクノロジー、教育、金融、医療、交通などの分野に重大な影響を与えうることを強調しています。ただし、イノベーションへの過度な規制は避けるべきであり、「組織がそれに対応できるリソースを持っている」ということが重要だとも述べています。なお、適切な安全措置なく強力なAIが普及すれば、「深刻かつ一部逆戻りできないような被害」を引き起こす可能性があると報告で警告されています。 また、ドラフト版からはAIモデルにおける化学、生物、放射線、核兵器(CBRN)リスクの上昇という新たな要素が加わりました。大手企業はこれらの領域でのモデル能力の不安な増加を自ら報告しています。報告は、AIの訓練方法は変わり続けるため、単純なコンピューティング力に基づく企業の分類だけでは問題だと主張。初めのリスク評価や下流の影響評価も重視すべきであるとし、その透明性向上に資する制度の整備を提案しています。 現在、多くの大手AI企業が独自で安全評価を行っていますが、第三者評価の導入によりGoogle、Microsoft、OpenAIなど各企業はモデルの安全性を高めると同時に、より具体的なリスクを明らかにすることになると報告は期待します。しかしながら、これらの企業は第三者評価者に対して充分なデータへのアクセスを供與することに渋っており、これが課題となっています。例えば、Metr 社は、OpenAIが自身のモデルへの十分な接続時間を供與しなくなったり、内部データへアクセスを制限している事態について批判しています。 報告書で示された第三者評価の要件は、既存の大企業だけでなく「多様性に優れた研究コミュニティ」にとっても重要だと強調しており、「AIの開発者は技術の全体像やリスクを理解していない」と指摘しています。また、「完璧な安全政策でも100%の危険回避は不可能」とし、利用者がAIシステムによって被害を受けた際の報告手段を設ける必要も提唱しています。 業界に対する透明性強化の要請が増す中、カリフォルニア州は連邦レベルでの取り組みと並行して、「全米共通の健全な政策の統一」に向けて尽力することが期待されます。カリフォルニア州立大学バークレー校計算・データ科学・社会学院院長のJennifer Tour Chayes氏らは、報告書が国際平和とAIの健全な発展の両立を目指すものだと述べています。