杜克大学研发“WildFusion”框架,让机器人感知复杂户外环境如森林和灾区
杜克大学的研究团队近日开发了一种名为WildFusion的新框架,能够将视觉、振动和触觉等多种传感器数据融合在一起,使机器人在复杂户外环境中更像人类一样感知周围环境。这项研究已经被接受为论文,即将在2025年5月19日至23日于佐治亚州亚特兰大举行的IEEE国际机器人与自动化大会(ICRA 2025)上发表。 传统的机器人主要依赖视觉或激光雷达传感器进行导航,在没有明确路径或地标的情况下往往会失灵。即使先进的3D地图构建方法,也常常因为数据稀疏、噪声或不完整而难以准确重建环境。WildFusion正是为此问题而设计,旨在解决机器人在非结构化户外环境下遇到的挑战。 WildFusion框架基于四足机器人,集成了RGB相机、激光雷达、惯性传感器以及接触麦克风和触觉传感器。机器人行走时,接触麦克风记录由每一步产生的独特振动,区分不同地面材料的声音特征,如干燥树叶的脆响或泥地的软绵感。触觉传感器则测量每个脚底的受力情况,实时判断地面的稳定性和滑溜度。惯性传感器收集加速度数据,评估机器人在不平地形上的摇晃、倾斜或翻滚程度。所有这些传感数据通过专门的编码器处理后,被融合成一个单一、丰富的表示形式。 WildFusion的核心在于一种深度学习模型,该模型采用隐式神经表示的方法,能够连续建模复杂的表面和特征,让机器人在视觉受限或模糊的情况下也能做出更智能、更直观的决策。研究人员使用接触麦克风记录的声波和触觉传感器的反馈,帮助机器人预测脚下路况,决定最佳行进路线。这种方法类似于我们在某些拼图缺失时依然能够想象出完整的画面,即利用多个感官信息来“填补空白”。 研究团队在北卡罗来纳州杜克大学附近的伊诺河州立公园进行了实际测试,成功帮助机器人穿越了密林、草地和碎石路。测试结果显示,WildFusion显著提升了机器人在复杂地形中的导航能力和路径选择的准确性。领导该项目的博士生刘燕百辉表示:“机器人能够自信地应对各种地形,这让人非常欣慰。” 未来,研究团队计划进一步扩展系统,增加温度或湿度检测器等其他传感器,从而增强机器人在更多复杂环境中的适应能力。凭借其灵活的模块化设计,WildFusion不仅在森林小径中有望得到广泛应用,还能够在灾难响应、远程基础设施巡检和自主探索等领域发挥重要作用。 机器人专家表示, WildFusion的多模态感知方法为机器人在真实世界中的应用开辟了新的道路。杜克大学机械工程与材料科学、电气与计算机工程以及计算机科学系的助理教授Boyuang Chen强调:“现代机器人的关键挑战之一是在实验室表现良好后,能否在混乱的现实环境中可靠运行。WildFusion使机器人能够更好地适应、决策并继续前进。” 杜克大学是一所位于美国北卡罗来纳州达勒姆市的世界著名研究型大学,以其在工程和计算机科学领域的卓越研究而闻名。本次研究得到了美国国防部高级研究计划局(DARPA)和陆军研究实验室的资助,体现了其在前沿技术领域的研究实力和资金支持。
