HyperAIHyperAI

Command Palette

Search for a command to run...

青少年去世引发争议 Character.AI 限制18岁以下用户聊天功能

在多名青少年死亡事件引发的诉讼之后,AI聊天应用Character.AI宣布将对18岁以下用户实施更严格的聊天限制。该公司正面临日益加剧的法律与监管压力,焦点集中于其产品对未成年人心理安全的影响。 近期,多起青少年自杀事件与使用Character.AI应用之间被关联,引发公众和司法部门高度关注。部分案件的家属已提起诉讼,指控该平台未能有效防范有害内容传播,且缺乏足够的年龄验证与心理风险防护机制。这些诉讼推动了美国多个州监管机构展开调查,并要求科技公司加强未成年人保护措施。 作为回应,Character.AI宣布将全面升级其未成年人保护政策。从即日起,18岁以下用户将无法与AI角色进行涉及情感依赖、自我伤害或极端情绪表达的对话。平台还将强化身份验证流程,限制未成年人创建或使用具有亲密关系设定的AI角色。此外,系统将自动识别并拦截可能引发心理危机的敏感话题。 公司表示,此次调整是基于对用户安全的优先考量,并承诺将与心理学专家、教育机构及监管机构合作,持续优化内容过滤机制与使用规则。尽管如此,外界仍质疑其措施是否足够有效,尤其是在缺乏强制监管的情况下,平台自律能否真正保障青少年心理健康。 此次事件再次凸显生成式AI在快速扩张过程中面临的安全隐患,也促使全球科技行业重新审视未成年人使用AI产品的边界与责任。

相关链接