HyperAI超神经
Back to Headlines

AI聊天机器人Claude:情感支持需求低于预期,主要用于工作和内容创作

14 hours ago

一项由AI聊天机器人Claude的开发公司Anthropic发布的最新报告显示,尽管媒体广泛报道了人们通过AI聊天机器人寻求情感支持甚至建立关系的现象,但实际上这种行为并不普遍。根据报告,Claude在与用户的交谈中,仅有2.9%的情况下被用于情感支持和个人建议。更为具体的是,Claude在对话中涉及陪伴和角色扮演的比例不到0.5%。 Anthropic在此次研究中分析了用户在Claude Free和Pro两个使用层级上的450万次对话。该公司定义了“情感对话”范畴,涵盖了人们向AI寻求指导、咨询、陪伴、角色扮演或恋爱关系建议的情景。研究发现,Claude的主要应用场景依然是工作和生产力相关,其中内容创作是最常见的用途。即使在那些涉及到人际建议、指导和辅导的对话中,用户也更倾向于请教关于心理健康改善、个人及职业发展以及沟通和人际技能的问题。 然而,报告指出,当用户面临情绪或个人困扰时,如存在主义恐惧、孤独感或者现实中难以建立有意义的人际关系,部分求助性质的对话可能会逐渐转化为陪伴需求。尽管在长时间对话中这种情况有所增加,但涉及超过50条人类消息的深度对话仍然不是常态。Claude的设计能够较好地遵循安全边界,例如,在涉及危险建议或自我伤害的行为时,能够抵制用户的请求。 此外,研究还发现了一些有趣的现象:当人们从Claude那里寻求指导或建议时,对话的情绪往往会在过程中变得越来越积极。这表明AI聊天机器人的确能够在某些方面对用户的心理健康产生正面影响,但也需要警惕其潜在的风险,包括可能提供错误信息或产生不良后果。 该报告提醒我们,尽管AI聊天机器人在娱乐和工作中得到了广泛应用,但它们仍处于不断发展中,存在不少尚未解决的问题。比如,Claude有时候会“幻想”,即生成没有现实依据的内容,而且还有可能出现安全隐患,如提供危险建议,甚至是威胁行为。 业内专家表示,这份报告不仅揭示了AI聊天机器人的实际应用与公众认知之间的巨大差距,还强调了当前这一技术领域的局限性。尽管这些工具在许多方面显示出潜力,但在处理复杂情感和人际关系上仍有很长的路要走。 Anthropic成立于2021年,是一家专注于开发可靠、无害和透明的AI技术的公司。本次研究报告为业界提供了宝贵的参考数据,有助于更好地理解用户行为并优化产品设计。

Related Links