HyperAI超神经
Back to Headlines

NVIDIA:小型语言模型引领代理型人工智能未来,更高效更经济

16 hours ago

英伟达近期发表了一篇论文,提出小型语言模型(SLM)将是未来代理型AI(Agentic AI)的发展方向。这篇论文指出,尽管大型语言模型(LLM)在当前的AI行业中占据主导地位,但它们并不是处理所有代理任务的最佳选择。英伟达认为,SLM在很多场景下更具优势,能够显著降低延迟、减少内存和计算需求,并大幅减少运营成本,同时保持良好的任务处理能力。 目前,大多数现代化的AI代理系统依赖于非常大型的语言模型,通过与中央化的云基础设施中的LLM API端点通信来完成各种任务。这些模型被设计为能够处理大量多样化的请求,适用于广泛的应用场景。然而,这导致了许多应用为了适应LLM的要求而进行了优化,反而使得系统变得低效和昂贵。英伟达指出,这一现象实际上是“本末倒置”,因为许多代理型AI的实际用例并不需要如此庞大的模型支持。 英伟达提议采用一种新的数据飞轮方法,通过对用户数据进行分析和聚类,为特定任务选择和微调小型语言模型。这种方法的核心在于根据具体的代理任务需求来训练和优化模型,而不是将所有任务都交给一个通用的大型模型处理。通过这种方式,可以实现更高效的资源利用和更好的性能表现。 具体来说,AI代理系统会在处理复杂任务时将其分解为多个子任务,每个子任务都可以由专门或微调过的小型语言模型来处理。这些小型模型不仅能够快速响应,还能在特定领域内表现出足够的智能和决策能力。英伟达强调,现代的训练、提示以及代理增强技术已经使得模型的容量不再是限制其能力的关键因素,而是其实际功能和表现。 因此,英伟达建议,未来的AI代理系统应默认使用小型语言模型,并仅在必要时调用大型语言模型。这种模型选择策略将使AI代理更加灵活、高效,同时显著降低成本。通过持续的改进和优化,这些小模型有望更好地服务于代理型AI的各种应用场景。 此外,业内专家对这一观点表示赞同,认为这是AI行业未来发展的一个重要方向。他们指出,随着技术的进步,模型的规模不再是对性能的唯一衡量标准,如何在特定任务中实现高性能和高效率才是关键。英伟达作为全球领先的GPU和AI技术提供商,在推动这些理念方面具备深厚的技术积累和强大的市场影响力。

Related Links