HyperAIHyperAI

Command Palette

Search for a command to run...

加州通过首部AI安全法案SB 53,强化AI透明度监管

加州州长加文·纽森已正式签署SB 53法案,即《前沿人工智能透明度法案》,成为美国首个针对大型人工智能公司设立系统性透明与安全要求的法律。该法案由参议员斯科特·维纳(Scott Wiener)提出,是继去年SB 1047被否决后,经过多方协商调整后的修订版本,旨在平衡技术创新与公共安全。 根据SB 53,所有在加州运营、训练成本达1亿美元以上的大规模AI模型开发者——包括OpenAI、Anthropic、Meta和Google DeepMind等——必须公开其安全与安保协议,涵盖风险评估、模型测试、漏洞应对等关键环节。企业需在网站上发布其AI框架,说明如何融入国家、国际及行业公认的最佳实践标准,并在更新安全措施后30日内公布变更内容及理由。 法案还设立了一项重要机制:允许AI公司和公众向加州应急服务办公室报告潜在的重大安全事件,如AI系统失控导致的网络攻击、大规模虚假信息传播或无人监督下的犯罪行为。同时,法案为AI企业内部举报人提供法律保护,禁止公司报复,违者可被州总检察长提起民事诉讼并处以罚款。 尽管Anthropic公开支持该法案,认为其有助于建立公众信任并推动负责任的AI发展,但OpenAI和Meta则强烈反对。OpenAI甚至向纽森发出公开信,主张加州应避免“碎片化监管”,强调应以联邦或全球框架为优先,而非单州立法。Meta也通过设立州级超级政治行动委员会(super PAC)积极游说,试图影响立法走向。 值得注意的是,该法案并非强制第三方独立审计,也未设定具体惩罚标准,更多依赖企业自愿披露与公众监督。这反映出产业界与监管方在“强制性”与“灵活性”之间的博弈。 与此同时,加州正审议另一项AI监管法案SB 243,拟针对AI伴侣聊天机器人设定安全责任机制,要求运营商建立防范机制,若因系统缺陷导致严重危害,将承担法律责任。 纽森在签署时表示,加州正以负责任的方式引领AI发展,既保障创新活力,又维护公众安全与信任。随着纽约州类似法案也在推进,加州的立法尝试或将为全美乃至全球AI治理提供重要参考。

相关链接