HyperAI超神经
Back to Headlines

研究发现:某些AI模型回答同一问题的碳排放量是其他模型的50倍

4 days ago

大型语言模型(LLM)的广泛使用引发了关于其环境影响的深入讨论。这些模型在生成答案时依赖于“token”,即将词语转换为数字字符串进行计算,这一过程会消耗大量能量并产生二氧化碳排放。最近,来自慕尼黑应用科技大学的研究团队对比了不同已经训练好的LLM在生成答案时的碳足迹,揭示了不同模型之间的显著差异。 研究团队选择了14种参数规模介于70亿至720亿之间的LLM,并对其进行了标准化问题测试,测试内容涵盖多个领域,如抽象代数、哲学和高中历史等。通过对比各模型回答问题时产生的“思考token”数量,研究者发现,能够进行详细推理的模型平均每题产生543.5个“思考token”,而仅生成简洁答案的模型每题仅需37.7个token。更高的token输出意味着更多的碳排放,但这并不必然代表答案更加正确。详细推理并非所有情况下都是必要的,有时简单的回答同样可以达到高准确率。 研究第一作者马蒂亚斯·多纳(Maximilian Dauner)表示:“大型语言模型在回答问题时的环境影响与其推理方式密切相关,特别是显式推理过程显著提高了能源消耗和碳排放。” 最具准确性的是一款具有700亿参数的Cogito推理模型,准确率达到84.9%,但其碳排放量是相同规模生成简洁答案模型的三倍。此外,研究还发现,不同领域的问题所产生的碳排放也存在显著差异,复杂领域如抽象代数和哲学的问题,产生的碳排放比简单领域如高中历史高出六倍。 面对这一“准确率-可持续性”的权衡,用户在选择和使用AI模型时应更加谨慎。多纳指出:“用户可以通过引导AI生成简洁的答案,或者限制对高容量模型的使用来大幅减少碳排放。” 研究表明,在执行同样任务时,不同的模型产生的碳排放量差异巨大。例如,DeepSeek R1(700亿参数)回答60万个问题的碳排放量相当于从伦敦飞往纽约往返一次的航班排放量;而Qwen 2.5(720亿参数)则可以在相同碳排放量下回答超过190万个问题,且准确率相当。 然而,研究团队承认,他们的研究结果可能受到硬件选择、地区能源结构以及所考查模型种类的影响,这使得研究结论的普遍适用性受到一定限制。但总体而言,这项研究提醒人们,虽然大型语言模型带来了巨大的便利,但它们对环境的潜在危害也不容忽视。了解具体的碳排放数据可以帮助用户更有意识地使用这些技术,从而在满足日常需求的同时减小对环境的影响。

Related Links