MIT研发光子处理器,助力6G无线信号实时处理
随着联网设备不断增加,如远程工作和云计算等任务对带宽的需求日益加大,如何在有限的无线频谱中有效管理这些需求成为一大难题。工程师们正利用人工智能来动态管理可用的无线频谱,旨在减少延迟并提高性能。然而,大多数用于分类和处理无线信号的AI方法耗电量大且难以实时运行。 为了解决这一问题,麻省理工学院(MIT)的研究人员开发了一种专门针对无线信号处理的新型AI硬件加速器——光学处理器。这款基于光的处理器能够在纳秒内进行机器学习计算,分类无线信号。与最好的数字替代方案相比,该光子芯片的处理速度提高了约100倍,信号分类准确率接近95%。此外,这款新型硬件加速器具有高可扩展性和灵活性,不仅适用于各种高性能计算应用,而且体积更小、重量更轻、成本更低、能耗也更低。 研究团队通过设计一种名为乘法模拟频率变换光学神经网络(MAFT-ONN)的架构,成功地解决了传统光学神经网络在信号处理中的扩展性和性能问题。MAFT-ONN在频域内编码和处理所有信号数据,即在无线信号被数字化之前进行处理。这种设计可以将所有的线性和非线性操作在线完成,而不需要为每个计算单元(或称为“神经元”)单独配备设备。研究负责人罗纳德·戴维斯三世博士解释说:“我们可以在单个设备上安装10,000个神经元,并一次性计算所需的所有乘法。” 这一创新的设计使MAFT-ONN能够使用光电器件乘法技术大幅提高效率,并使其易于扩展。在模拟测试中,MAFT-ONN仅需120纳秒就能完成整个信号分类过程,单次分类准确率达到85%,多轮测量后准确率可超过99%。 研究人员表示,这种边缘设备可以实时分析无线信号,从而为多种应用提供显著的加速效果。除了信号处理,它还可以帮助自动驾驶车辆即时应对环境变化,或让智能心脏起搏器持续监控患者的心脏健康。 展望未来,研究团队计划采用多路复用技术进一步提升MAFT-ONN的计算能力,并将其扩展到更复杂的深度学习架构,如Transformer模型或大型语言模型(LLM)。 这款光学处理器在6G无线通信领域的应用潜力尤为突出。例如,在认知无线电中,它可以优化数据传输速率,通过自适应无线调制格式来响应不断变化的无线环境,确保可靠的通信质量。 业内专家认为,这项研究展示了光学计算在高性能和低能耗方面的巨大优势,为未来的无线通信和边缘设备带来了新的可能性。MIT一直是前沿科技研发的领头羊,其量子光子学和人工智能研究小组(Quantum Photonics and Artificial Intelligence Group)在光学计算领域积累了丰富的经验。此次研究得到了美国陆军研究实验室、美国空军、MIT林肯实验室、日本电报电话公司(NTT)和美国国家科学基金会的部分资助。