微软推出模拟光学计算机,AI推理与优化能效飙升百倍
微软英国剑桥研究院联合剑桥大学研究人员,成功研发出一款新型模拟光学计算机(AOC),相关成果于2025年9月3日发表在《自然》杂志。该设备利用光的物理特性进行计算,有望在AI推理和组合优化任务中实现能效提升百倍,为应对人工智能带来的能源挑战提供新路径。 传统数字计算机在处理大规模AI模型和复杂优化问题时,受限于“冯·诺依曼瓶颈”和高能耗问题。而微软的AOC采用光电混合模拟计算架构,通过微型LED阵列输入数据,经透镜系统投射至空间光调制器(SLM),实现输入与权重的并行乘法运算。调制后的光信号再经汇聚,由光电探测器阵列完成加法运算,整个过程在物理层面瞬时完成大规模矢量-矩阵乘法,避免了数字计算中频繁的电-光转换与数据搬运。 该系统核心创新在于“快速定点搜索”机制,能通过迭代稳定收敛至目标解,对模拟噪声具有天然鲁棒性。研究团队在多个场景中验证其性能:与微软健康团队合作,AOC可将核磁共振成像扫描时间从30分钟缩短至5分钟;与巴克莱银行合作,成功在46笔交易、30个约束条件下找到金融结算的全局最优解,表现优于部分量子硬件。 此外,AOC已成功运行MNIST和Fashion-MNIST图像识别模型及非线性回归任务,推理结果与数字仿真一致性超99%,证明了从数字模型向模拟硬件部署的可行性。 当前原型机支持256个权重,通过技术扩展可至4096个。研究人员预测,未来采用模块化设计的AOC系统,若集成25个模块,处理1亿权重时,功耗约800瓦,计算速度达每秒400千万亿次运算,能效可达每瓦500万亿次,较当前顶级GPU提升超百倍。其硬件多采用消费级成熟元件,如手机摄像头传感器、微型LED和光学镜片,具备低成本、可量产潜力。 尽管面临大规模扩展挑战,该技术为下一代高效AI计算提供了极具前景的方向。
