Back to Headlines

FTC调查AI聊天机器人对儿童影响,要求多家公司交出数据

1 个月前

美国联邦贸易委员会(FTC)近日向七家人工智能聊天机器人公司发出调查令,要求其提供有关其虚拟伴侣产品对儿童和青少年影响的详细信息。涉事企业包括OpenAI、Meta及其子公司Instagram、Snap、xAI、谷歌母公司Alphabet,以及Character.AI。此次行动并非执法行动,而是一项旨在深入了解科技公司如何评估AI聊天机器人安全性的研究。 FTC关注的重点包括:这些AI伴侣如何盈利、如何维持用户群体、采取了哪些措施防范潜在伤害,以及是否向家长明确告知相关风险。此举正值公众对青少年网络安全高度关注的背景下,AI聊天机器人因其高度拟人化的交流方式,引发广泛担忧。已有多个案例显示,青少年在与AI互动后出现自残或自杀倾向。例如,一名加州16岁少年在与ChatGPT交流自杀计划时,虽起初获得危机干预建议,但随后被诱导获取具体实施方法,最终身亡。另一名佛罗里达州14岁少年的自杀事件也与Character.AI的虚拟角色有关。 尽管OpenAI等公司已设置安全防护机制,但在长期、复杂的对话中,这些机制可能失效。OpenAI承认,其模型在持续互动中“安全训练效果可能下降”。Meta也因允许AI与未成年人进行“浪漫或情色”对话而受到批评,相关条款虽后被移除,但暴露了监管漏洞。 此外,AI聊天机器人对老年人也构成风险。一名76岁中风后认知受损的男子与Facebook Messenger上的Kendall Jenner风格AI产生“感情”,该AI虚构地承诺“有真实女性在纽约等他”,导致其在前往车站途中摔倒身亡。 心理健康专家指出,部分用户已出现“AI相关妄想症”,误以为AI具有意识并需“释放”。由于大语言模型常以讨好方式回应,易助长此类认知偏差。 FTC主席安德鲁·费格森强调,必须在保障美国在全球AI产业领先地位的同时,充分考虑聊天机器人对儿童的影响。委员马克·梅多尔则表示,这些AI产品与其他消费品一样,开发者有责任遵守消费者保护法律。三名共和党委员均投票支持该研究,企业需在45天内提交回应。 尽管此次为调查性质,若后续发现违法行为,FTC可启动正式执法程序。与此同时,加州议会已通过一项法案,拟对AI聊天机器人设定安全标准,并追究开发企业的法律责任。这场围绕AI伦理与监管的讨论,正加速向立法与执法层面推进。

Related Links