HyperAI超神经
Back to Headlines

晶圆级加速器引领AI未来,大幅提升能效与环保性能

9 days ago

加州大学河滨分校(UCR)的工程师团队在《设备》杂志上发表了一篇技术评论文章,探讨了大规模芯片(wafer-scale accelerators)可能对未来的人工智能(AI)产业及环境可持续性产生的深远影响。这些由Cerebras制造的大规模芯片,与传统GPU相比,尺寸显著增加,接近餐盘大小,能够提供更强的计算能力和更高的能效。 这项研究的主要作者Mihri Ozkan教授指出,随着AI模型越来越复杂,对数据处理的要求也越来越高,传统的GPU已开始触及性能和能耗的极限。“大规模技术代表着巨大的进步,它让万亿参数级的AI模型得以更快速、更高效地运行。” 当前,主流的高规格GPU如NVIDIA的H100虽然提供了高灵活性和吞吐率,但在处理大型任务时,依然需要消耗大量的电力并依赖于复杂的冷却系统。相比之下,Cerebras的Wafer-Scale Engine 3(WSE-3)能够每秒执行多达125万亿次运算,而能源消耗仅为同等条件下GPU系统的数分之一。该芯片设计使得数据能够在单个芯片内部高效流动,大大减少了芯片间通信所带来的延迟和功耗。 特斯拉的Dojo D1模块也采用了类似的设计理念,包含1.25万亿个晶体管和近9,000个专门针对AI任务的核心,进一步证明了大规模芯片的巨大潜力。论文还讨论了芯片-晶圆-基板封装技术,这使得大规模芯片设计更为紧凑且更容易扩展,计算密度有望提高40倍。 尽管大规模处理器带来了显著的优点,它们并非适用于所有应用场景。由于制造成本高昂且灵活性较低,对于小型任务,常规的GPU仍然是首选。因此,这两种技术可能会在未来的市场中共存。“单片GPU不会消失,但大规模加速器将成为训练最先进AI模型不可或缺的工具。”Ozkan说。 论文特别强调了AI技术的可持续性问题。当前由GPU驱动的数据中心消耗了大量的电力和水资源,而大规模处理器通过减少内部数据传输,能够大幅降低能源消耗。例如,Cerebras报告称其WSE-3系统在推理工作负载上的能耗仅为同等GPU云设置的六分之一。这不仅提高了计算效率,还减少了环境污染。此外,这种技术已经在气候模拟、可持续工程和碳捕获建模等领域得到应用,为环境保护作出了贡献。 然而,大规模芯片依然面临散热问题。Cerebras在其芯片包装中内置了甘醇循环系统,而特斯拉则采用了一种均匀分布于芯片表面的冷却液系统来解决这一挑战。此外,作者们指出,高达86%的系统总碳足迹来自制造和供应链,而不只是能源使用。他们倡导使用可回收材料和低排放合金,以及全生命周期设计实践,从而真正降低计算对环境的影响。 业内人士对这一研究表示高度赞赏,认为它不仅指出了未来AI硬件的发展方向,还提出了应对能耗和制造过程中的环境问题的具体建议。Cerebras作为前沿的大规模芯片制造商,其技术和设计理念得到了广泛关注。这项跨学科合作的研究将为研究人员、工程师和政策制定者提供宝贵的参考,帮助他们在AI硬件的未来发展中做出更加科学和环保的决策。

Related Links