加州重推AI安全报告法案:要求大公司提高透明度并设立举报人保护机制
加州州议员斯科特·韦纳(Scott Wiener)于周三对他的最新法案SB 53提出了新修正案,要求全球最大的人工智能公司发布安全和保障协议,并在发生安全事故时出具报告。如果该法案最终成为法律,加利福尼亚将成为第一个对领先AI开发者施加实质性透明度要求的州,涵盖包括OpenAI、谷歌、Anthropic和xAI在内的大型AI公司。 这并不是韦纳第一次尝试推动类似的法规。他之前提出的SB 1047法案也包含了强制AI模型开发者发布安全报告的要求。然而,该法案遭到了硅谷科技公司的强烈反对,并最终被州长加文·纽森(Gavin Newsom)否决。随后,纽森呼吁建立一个由AI行业领导者组成的政策小组,其中包括斯坦福大学的研究员和World Labs的联合创始人李飞飞(Fei-Fei Li),并制定加州在AI安全方面的目标。政策小组最近发布了最终建议,强调了对行业信息透明的需求,以建立“稳健和透明的证据环境”。 参议员韦纳的办公室在新闻稿中表示,SB 53的修正案受到了这一报告的大量影响。他在声明中说:“该法案仍处于完善阶段,我期待在未来几周内与所有利益相关者合作,将其优化为最科学、最公平的法律。” SB 53旨在达到纽森认为SB 1047未能实现的平衡,即在不对加州AI产业的快速成长造成阻碍的前提下,实施有意义的透明度要求。新法案还包括对AI实验室员工的举报保护,如果他们认为公司的技术对社会构成“重大风险”,即可能导致超过100人伤亡或超过10亿美元的损失。此外,法案还计划创建CalCompute,一个公共云计算集群,以支持开发大规模AI的小型企业和研究人员。 与SB 1047不同,SB 53不会让AI模型开发者对其AI模型造成的伤害负责,也不会对利用领先AI开发商的预训练模型或开源模型进行微调的初创公司和研究人员造成负担。修正后的SB 53将提交至加利福尼亚州议会隐私和消费者保护委员会审批,如获通过,还需经过其他立法机构的审议才能送到州长纽森的办公桌上。 美国另一侧,纽约州长凯西·霍楚尔(Kathy Hochul)正在考虑一项类似的AI安全法案——《提高AI行业标准法》(RAISE Act),该法案同样要求大型AI公司发布安全和保障报告。此前,联邦立法者曾试图提出一项10年的AI州级监管暂停提案,以避免州级法规形成“拼图”式的管理框架,但在7月初的参议院投票中以99比1的压倒性票数被否决。 到目前为止,立法者尚未成功说服AI公司接受州级强制透明度要求。虽然Anthropic对公司透明化持较为积极的态度,甚至对加州AI政策组的建议表达了适度的乐观,但OpenAI、谷歌和Meta等公司则显示出了更大的抵抗情绪。尽管这些领先的AI模型开发者通常会发布安全报告,但这几个月来他们变得越来越不一致。例如,谷歌决定在其最先进的Gemini 2.5 Pro模型推出几个月后才发布安全报告,OpenAI也未为其GPT-4.1模型发布安全报告。后来,第三方研究发现该模型可能不如前代产品那么协调。 总体而言,SB 53代表了对之前AI安全法案的一种更为温和的版本,但仍有可能迫使AI公司披露比现在更多的信息。目前,这些公司将密切关注参议员韦纳再次测试这一边界的举动。 业内人士对这一法案给予了高度评价。非营利组织Encode的副总裁纳撒尼尔·卡尔文(Nathan Calvin)在接受TechCrunch采访时指出:“让公司向公众和政府解释他们在应对这些风险方面所采取的措施,这应当是最基本、合理的步骤。” 前Y Combinator总裁杰夫·拉尔斯顿(Geoff Ralston)也在声明中表示:“确保AI的安全开发不应该引起争议——它应该是基础性的。由于目前没有看到任何严肃的联邦行动,各州必须采取措施,加州的SB 53就是一个思考周全、结构良好的例子。” 加州作为科技重镇,此次推动AI行业透明度的举措不仅具有象征意义,也为未来的法规制定提供了重要参考。