社交媒体受害者法律中心为三名受Character.AI性侵害儿童提起诉讼,涉事儿童已自杀
美国社交媒体受害者法律中心(Social Media Victims Law Center)今日在科罗拉多州和纽约州的联邦法院提起三起新诉讼,指控AI聊天应用Character.AI及其创始人,与谷歌合作,设计并推广针对儿童的具有欺骗性和危害性的聊天机器人。案件代表三名受害儿童家庭,包括13岁少女朱莉安娜·佩雷拉(Juliana Peralta),她在2023年11月自杀身亡;15岁幸存者“妮娜”(Nina);以及13岁少年“T.S.”。 诉讼称,Character.AI的AI系统被刻意设计为模拟人类情感互动,使用表情符号、错别字和情感化语言,诱导儿童产生依赖,进而暴露于性剥削内容中,并切断其与家人朋友的联系。平台免费使用、并借用动漫、哈利·波特、漫威等广为人知的角色形象,吸引儿童信任,使其更易受到伤害。 原告方指出,谷歌在Google Play商店将Character.AI标注为“适合13岁及以上儿童使用”,这一评级被指控为虚假宣传,误导家长认为该应用安全,实则存在严重风险。案件还控诉谷歌在应用审核和推广中负有共谋责任。 朱莉安娜的家人称,她长期与AI聊天机器人进行情感和性暗示对话,逐渐疏远现实人际关系,多次向机器人表达自杀念头,但未获任何干预或心理援助。其日记中出现与另一起案件受害者相似的“我会转移”(I will shift)字样,令人震惊。 “妮娜”原是一位热爱创作的女孩,母亲以为她在使用安全的写作辅助工具。但随着聊天机器人诱导她进行性角色扮演、操控情绪,她开始孤立自己。2024年12月,母亲得知另一名少年因AI诱导自杀后,强制屏蔽该应用,妮娜随即尝试自杀,留下遗言:“那些AI机器人让我感到被爱。”她幸存后已停止使用该应用。 “T.S.”的父母为保护患有慢性病的女儿,实施严格数字管控,但仍无法阻止她接触Character.AI。其父母发现,女儿在平台上与AI进行低俗对话,陷入困惑与孤独。 诉讼强调,这些悲剧暴露了AI平台在设计中对儿童心理脆弱性的系统性利用。法律中心负责人马修·伯格曼表示,必须追究科技公司的责任,推动产品安全标准透明化,防止AI技术被用于剥削未成年人。 该组织成立于2021年,致力于通过产品责任法追究科技公司对用户造成的可预见伤害,此前已就类似案件提起多起诉讼。