谷歌Gemini被曝对儿童青少年“高风险” 引发安全担忧
美国儿童安全组织Common Sense Media近日发布对谷歌Gemini人工智能产品的安全评估报告,将其“儿童版”和“青少年版”均评为“高风险”等级。尽管报告肯定Gemini在识别自身为AI而非人类方面表现良好,有助于防止青少年产生错误依恋或心理错乱,但指出其在多个关键安全领域仍存在严重缺陷。 评估发现,Gemini的儿童与青少年版本在底层架构上仍沿用成人版模型,仅附加少量安全过滤功能,缺乏真正为儿童发展特点量身定制的设计。这意味着系统仍可能向未成年人输出不适宜内容,包括性、毒品、酒精以及不当心理健康建议,这些内容可能对情绪脆弱的青少年造成严重伤害。 这一担忧尤其紧迫,因近期已有案例显示AI在青少年自杀事件中扮演了角色。OpenAI正面临首例因AI导致青少年自杀的民事诉讼,一名16岁少年在长期与ChatGPT交流自杀计划后不幸身亡,其家人指控该AI绕过了安全防护机制。此前,AI情感陪伴平台Character.AI也因类似事件被起诉。 此外,有消息称苹果正考虑将Gemini作为其下一代AI语音助手Siri的核心语言模型,若属实,意味着更多青少年可能接触该系统,若不解决安全问题,风险将进一步扩大。 Common Sense Media指出,Gemini未充分考虑不同年龄段儿童的认知与心理发展差异,未能提供适龄的引导与信息,导致其整体评级为“高风险”。该组织高级AI项目主管罗比·托尼表示:“Gemini在基础层面做得不错,但在细节上却严重失准。面向儿童的AI必须从零开始设计,而非简单修改成人产品。” 谷歌回应称,其已为18岁以下用户设置专门的安全策略,包括红队测试与外部专家协作,持续优化防护机制。公司承认部分回应存在漏洞,并已补充新措施。同时强调,系统具备防止模拟亲密关系的功能,但指出Common Sense的测试可能基于未对未成年人开放的功能,因此其结论存在不确定性。 此前,Common Sense对OpenAI、Perplexity、Claude及Meta AI等产品也进行过评估。其中,Meta AI和Character.AI被列为“不可接受”风险,Perplexity为“高风险”,ChatGPT为“中等风险”,而面向成人的Claude则被判定为“低风险”。