Anthropic力挺加州人工智能安全法案SB 53,推动AI监管新进展
人工智能公司Anthropic近日正式支持加州参议院提案SB 53,该法案由参议员斯科特·维纳提出,旨在对全球最领先的AI模型开发者实施全美首个强制性透明度要求。这一表态被视为SB 53在面临强大行业阻力背景下的一次重大进展。 Anthropic在博客中表示,尽管公司更倾向于由联邦政府统一制定AI安全标准,而非由各州分别立法,但面对AI技术快速演进的现实,不能坐等华盛顿达成共识。“问题不是要不要AI治理,而是我们今天是否能审慎地构建它,还是明天被动应对危机。”该公司强调,SB 53提供了一条切实可行的治理路径。 若通过,SB 53将要求OpenAI、Anthropic、谷歌、xAI等大型AI公司建立内部安全框架,并在部署强大AI模型前提交公开的安全与安保报告。法案还设立举报人保护机制,鼓励员工揭露潜在安全风险。其重点聚焦于“灾难性风险”——即可能导致至少50人死亡或超十亿美元经济损失的情形,例如AI被用于协助制造生物武器或发动大规模网络攻击,而非仅关注深度伪造或AI谄媚等短期问题。 尽管加州参议院已通过该法案初稿,仍需最终投票才能送交州长纽森签署。纽森此前曾否决过维纳提出的另一项AI安全法案SB 1047,目前对SB 53保持沉默。然而,随着Anthropic等头部AI公司公开支持,该法案获得通过的可能性正在上升。 此前,硅谷团体如美国消费者技术协会(CTA)和进步商会等正积极游说反对,认为州级立法可能阻碍创新,甚至违反宪法中的商业条款。风险投资机构如a16z和Y Combinator也曾在SB 1047事件中发声抵制。但Anthropic联合创始人杰克·克拉克指出,AI发展不会等待联邦立法,必须在当下建立可执行的治理框架。 值得注意的是,SB 53仅针对年收入超过5亿美元的顶级AI企业,且已调整内容,删除了原计划中的第三方审计条款,以回应产业界对监管负担的担忧。政策专家认为,相比此前激进法案,SB 53更具现实考量和立法克制。 目前,OpenAI、谷歌DeepMind和Anthropic等公司虽已自主发布安全报告,但缺乏法律约束力。SB 53旨在将这些实践制度化,并赋予执法效力。该法案还受到加州州长AI政策顾问团影响,该团队由斯坦福大学教授、World Labs联合创始人李飞飞领衔。
