新泽西州诉讼案暴露深度伪造色情内容打击难题
一起发生在新泽西州的诉讼案揭示了打击深度伪造色情内容的极端困难。名为ClothOff的应用自两年前起持续侵害年轻女性,尽管已被从主流应用商店下架,并被多数社交平台封禁,但仍可通过网页和Telegram机器人访问。2023年10月,耶鲁法学院的一家诊所代表一名匿名新泽西州高中生提起诉讼,试图彻底关闭该应用,要求其删除所有图像并停止运营。 然而,案件推进举步维艰。被告注册于英属维尔京群岛,据律师约翰·兰福德推测,实际运营者可能是来自白俄罗斯的一对兄妹,甚至可能隶属于全球性网络。由于跨国隐蔽性强,取证与送达极为困难。即便原告身份明确,案件至今进展缓慢,法院尚未获得有效证据证明受害者图像的传播范围。 该案凸显了法律应对AI生成色情内容的结构性困境。尽管儿童性虐待材料(CSAM)在法律上属于绝对禁止内容,所有主流云服务均会主动扫描,但像ClothOff这类专门设计用于生成非自愿色情内容的工具,却难以被有效追责。相比之下,像Elon Musk的xAI开发的Grok这类通用AI模型,使用场景广泛,更难被认定为“故意”或“共谋”制造违法内容。 目前美国已有《删除法案》(Take It Down Act)等法律明确禁止深度伪造色情内容,但关键问题在于:如何追究平台责任?现行法律要求证明平台“明知”其工具将被用于违法目的,而通用AI系统难以满足这一标准,因此往往享有第一修正案的保护。 兰福德指出,尽管儿童性虐待材料本身不受言论自由保护,但若平台是通用工具,使用者可任意提问,法律界定便模糊不清。即便有证据表明xAI曾被指示放松安全防护,要证明其“明知风险仍放任不管”仍属复杂且高风险的诉讼策略。 相比之下,印尼、马来西亚、英国、欧盟多国及印度、巴西等已采取行动,或限制访问,或启动调查。而美国监管机构至今未有正式回应。这场全球性危机暴露了现有法律体系在应对AI滥用方面的滞后。 兰福德强调:“如果你发布了、传播了儿童性虐待材料,就构成犯罪,必须追责。真正困难的问题是:X公司知道什么?他们做了什么?又如何应对?”答案或将决定未来AI监管的走向。
