质子级垃圾邮件来袭:人工智能如何应对“同意”困境?
2026年1月14日,Proton向用户发送了一封主题为“推出Projects——立即体验Lumo的强大新功能”的邮件。Lumo是Proton推出的AI产品,但问题在于:作者已明确选择不接收Lumo相关邮件,其账户中“Lumo产品更新”选项处于未勾选状态,且他仅对其他十余种邮件订阅保持开启,唯独拒绝了Lumo。 然而,这封邮件不仅以“From Lumo”和@lumo.proton.me的地址发送,内容也明确指向Lumo功能推广。作者随即联系Proton客服,试图澄清这一明显违背用户选择的行为。客服回复却令人失望——他们引导作者再次前往相同的“Lumo产品更新”选项进行退订,而该选项早已被关闭。在提供截图并明确指出自己已明确拒绝后,Proton最终回应称:这封邮件并非“Lumo产品更新”通知,而是面向企业用户的“Proton商业版”新闻简报。 这一解释显然站不住脚。邮件主题、发件人、内容均围绕Lumo展开,却声称属于另一个完全不同的订阅类别,实为对用户选择权的公然无视。更令人不安的是,Proton花了整整五个工作日才给出这一牵强解释,反映出其系统对用户意愿的漠视。 这并非个例。从Mozilla到GitHub,AI相关推送正日益无视用户“拒绝”的权利。作者指出,整个AI行业正建立在“非同意”基础之上:无视版权、滥用数据、伪造用户代理、强制推送AI功能。GitHub最近更是“加码”——即使用户从未订阅,也强行推送“使用新GitHub Copilot SDK构建AI代理”的邮件,且账户设置中无法关闭此类通知。 这不仅是技术问题,更是伦理危机。当企业将“用户同意”当作可随意绕过的障碍,当AI被无差别、无底线地植入用户生活,我们正面临一场关于数字自主权的严峻挑战。拒绝不应被无视,选择不应被篡改。如果连退订都成奢望,那么“用户控制”不过是一句空话。
