OpenAI 揭秘:ChatGPT 深度研究背后的多重模型机制
近日,OpenAI 推出了一个新的API,名为“Deep Research”,用于增强ChatGPT的深度研究功能。与此同时,OpenAI 也揭示了ChatGPT 内部运作的一些细节,这对企业级应用的开发者发出了新的信号,提醒他们API 实际上是一个黑箱,底层功能并不透明。许多研究表明,商业API背后的模型会随着时间而变化或漂移,这意味着用户必须依赖于模型提供商,无法完全控制模型的行为。 根据OpenAI发布的API文档,当通过Deep Research查询ChatGPT时,实际上涉及三个不同的模型调用。首先,一个轻量级的帮助模型(如GPT-4.1)会与用户进行互动,澄清用户的意图并收集诸如偏好或目标等详细信息。这一步骤有助于定制网络搜索,产生更相关的结果。接下来,另一个轻量级的提示重写模型(同样可能是GPT-4.1)会对用户的问题进行扩展或细化,使问题更加具体化,然后将这些优化后的问题传递给深度研究模型进行处理。这种多层次的模型调用方式体现了ChatGPT背后复杂的技术架构。 值得注意的是,在对外提供的API中,第一步骤被省略了,因此开发人员可以根据需要自行选择是否加入这一步来定制用户体验。这种方式不仅提高了查询的准确性和效率,还为开发者提供了更多的灵活性。虽然ChatGPT 的GUI设计初衷是为了隐藏这些复杂的操作,呈现给用户一个简洁友好的界面,但这次披露的信息展示了其背后的多模型协作机制是多么重要。 此次公开的信息还表明,复杂性并非总是由单一的强大模型来处理。相反,多个定制的小型、功能较弱的模型通过协同工作,能够实现更为精准和高效的交互。这种模式的一个例子来自NVIDIA,该公司展示了一种方法,即训练一个语言模型来准确识别在不同步骤或子步骤中应使用哪种工具。这种方法不仅提高了处理速度,还能更好地满足不同场景下的具体需求。 业内人士对此评价高度积极,认为这是一次重要的技术公开,有助于理解当前AI 聊天平台的内部运作机制。这不仅为开发者提供了更好的指导,也促进了整个行业的技术透明度和健康发展。对于OpenAI来说,这一举措显示了公司在技术透明度方面的进步,增强了外界对其技术的信任。 OpenAI 成立于2015年,是一家致力于推动人工智能研究和应用的非营利组织。近年来,随着ChatGPT等产品的推出,OpenAI 在商业化道路上取得了显著进展。尽管如此,公司一直坚持开放和透明的原则,力求在技术发展和社会责任之间找到平衡。此次API 和内部机制的发布,进一步巩固了OpenAI 作为行业领导者的地位,同时也为其他公司和技术开发者提供了宝贵的参考。