HyperAI超神经
Back to Headlines

GitHub 泄露揭示克劳德 AI 系统提示占用 24,000 个令牌,免费用户对话受限原因曝光

8 小时前

近期,GitHub 上的一则消息引发了轩然大波,原因是有人泄露了 AI 助手 Claude 的系统提示,其长度竟高达24,000个 token,这一数字震惊了众多用户。许多人在使用 Claude 进行交流时都遇到过一个普遍的问题:聊天迅速达到限制,这使得许多创意写作爱好者颇为不满。Claude 被公认为最好的创意写作助手之一,但它的免费版本却因为频繁的聊天限制而备受诟病。 这次的 GitHub 泄露事件提供了一个可能的解释: Claude 的系统提示占用了大量的消息额度,从而导致用户在真正开始对话之前就已经接近或达到了限制。尽管一些用户怀疑这一泄露的真实性,但即使如此,官方提供的系统提示依然异常冗长。官方文档中包括了许多与实际对话并不直接相关的内容,比如嵌入了提示工程指南的链接和详尽的使用说明段落。这些额外的信息让用户感到困惑,他们质疑为何系统提示中会包含这些内容。 在 AI 技术领域,系统提示是 AI 模型的核心组成部分,它定义了模型的行为准则和回答框架。一个好的系统提示可以使 AI 表现得更为自然和智能,但过长的提示不仅消耗用户的聊天额度,还会占用计算资源,影响对话的效率。泄露的系统提示内容显示, Anthropic 公司(Claude 的开发商)在系统提示中加入了大量非必要的细节,这可能是出于技术或商业的考虑。然而,这种做法显然影响了用户体验。 事实上,不少用户表示,他们在使用 Claude 进行创作时遇到了极大的不便。系统提示中包含的大量背景信息和指导说明虽然在某些场景下可能是必要的,但大多数用户并不需要这些内容。例如,官方文档中的提示设计指南、特征使用说明等,这些信息本应通过其他渠道呈现,而非直接镶嵌在系统提示中。这种做法不仅浪费了用户的宝贵资源,还使得 AI 的使用体验大打折扣。 为了回应用户的质疑和不满, Anthropic 公司可能会在未来调整 Claude 的系统提示,使其更加精简高效。目前,公司尚未对此事发表正式声明。不过,这一事件已经引起了广泛的讨论和关注,许多用户期待更透明的解释和更优化的服务。 业内专家认为,此次泄露事件暴露出了一些 AI 工具开发商在设计系统提示时的不当做法。他们建议公司应该更加注重用户体验,优化系统提示的内容,以确保 AI 辅助工具能够更好地服务于用户的需求。 Anthropic 公司作为一家领先的人工智能研发企业,此次事件无疑对其声誉造成了一定的影响。希望通过这次事件,该公司能够吸取教训,推出更为合理、高效的 AI 服务。

Related Links