HyperAIHyperAI

Command Palette

Search for a command to run...

Nvidia发布Alpamayo开源AI模型助力自动驾驶“类人思考”

在2026年CES展会上,英伟达(NVIDIA)正式推出名为Alpamayo的全新开源AI生态系统,涵盖大模型、仿真工具与开放数据集,旨在推动物理世界中人工智能的推理能力发展,尤其聚焦于自动驾驶车辆应对复杂、罕见驾驶场景的能力。英伟达CEO黄仁勋称:“物理AI的‘ChatGPT时刻’已经到来——机器开始真正理解、推理并行动于现实世界。”他指出,Alpamayo标志着自动驾驶从单纯感知与执行向具备人类式思考能力的跃迁。 Alpamayo的核心是Alpamayo 1,一款拥有100亿参数的链式思维(chain-of-thought)视觉语言动作(VLA)模型。该模型能基于视频输入,逐步分析复杂路况,推理每一步决策逻辑,并输出驾驶轨迹与解释说明。例如,在交通信号灯故障的繁忙路口,模型可自主拆解问题、评估多种可能性,最终选择最安全路径,无需预先训练经验。 该模型代码已开源并上线Hugging Face,开发者可对其进行微调,生成更轻量、高效的运行版本,用于车载系统部署,也可作为基础构建自动标注工具、决策评估系统等开发工具。此外,英伟达同步推出AlpaSim——一个开源的端到端自动驾驶仿真框架,支持高保真传感器建模与动态交通环境模拟,便于开发者在安全环境中大规模测试与优化系统。 为支撑模型训练,英伟达还发布了包含超过1700小时驾驶数据的开放数据集,覆盖全球多种地理与气候条件,重点收录罕见、高难度的真实驾驶场景。这些数据与Alpamayo模型结合,形成“真实+合成数据”的闭环训练体系,显著提升模型泛化能力。 值得一提的是,英伟达还整合其生成式世界模型Cosmos,用于生成高精度虚拟驾驶环境,辅助模型在仿真中学习与验证。整个Alpamayo生态系统依托NVIDIA Halos安全架构,确保推理过程可解释、可追溯,为实现L4级自动驾驶提供可信基础。 包括Lucid、捷豹路虎(JLR)、Uber及伯克利深度驾驶中心(Berkeley DeepDrive)在内的行业领军者已表示支持。他们认为,开源模型与开放数据将加速物理AI的创新,提升系统透明度与安全性,推动自动驾驶从实验室走向大规模商用。 英伟达表示,Alpamayo并非直接部署于车辆,而是作为“教师模型”,赋能开发者构建更智能、更可靠的自动驾驶系统。未来,该系列还将推出更大参数、更强推理能力的模型,并支持商业化应用。这一举措被视为推动自动驾驶迈向“可解释、可信任、可扩展”新阶段的关键一步。

相关链接