NVIDIA吴新宙:世界模型是自动驾驶最本质的一环
2026/4/28 21:08:46 网站建设 项目流程

点击下方卡片,关注“自动驾驶之心”公众号

戳我->领取自动驾驶近30个方向学习路线

编辑 | 自动驾驶之心

>>自动驾驶前沿信息获取自动驾驶之心知识星球

上周四,自动驾驶之心很荣幸参加了NVIDIA在北京线下举办的NVIDIA 2026 北京车展媒体会,现场分享的主讲人是NVIDIA全球副总裁吴新宙。主题为《迈向 L4 级自动驾驶之路,打造可规模化、安全的自动驾驶汽车与 Robotaxi》。

这场Workshop的信息量很大。

从车端计算、传感器架构、安全操作系统,到Alpamayo、DRIVE AV、Cosmos和Omniverse NuRec,NVIDIA这次几乎把它对辅助驾驶下一阶段的理解摊开聊了一遍。

最让自动驾驶之心印象深刻的,是结束前的一个回答。

我当时向吴新宙提问了一个问题:NVIDIA后续的Alpamayo 2.0会不会使用世界模型,以及NVIDIA如何思考世界模型和自动驾驶的结合。

他的回答很明确:世界模型是自动驾驶最本质的一环。而从自动驾驶之心了解的技术趋势来看,VLA和世界模型正在逐渐走向融合。

这个判断很重要。过去一年,自动驾驶行业对VLA、端到端和世界模型的讨论很多,但很多时候大家会把他们拆成几条互相竞争的路线,选了VLA就不能聊世界模型,讲世界模型就一定要脱离端到端。

NVIDIA这次给出的信号再次印证了我们之前的思考:VLA和世界模型并不是两条分叉的技术路线,在更高阶的辅助驾驶阶段,它们一定会深度融合。

01.

自动驾驶正在进入物理AI阶段

这次 Workshop 开头,NVIDIA 用了一张很有意思的图。它把过去十几年的 AI 发展,放在一条时间线上。

2012 年 AlexNet 之后,是感知 AI:典型代表是语音识别、推荐系统、医疗影像。随后是生成式 AI:覆盖数字营销、内容生成。再往后是代理式 AI:比如代码助手、客服、医疗护理。

到了下一阶段,NVIDIA 把辅助驾驶和通用机器人都放进了物理 AI 里面:物理 AI 的构建与安全部署,是未来十年的核心挑战。

自动驾驶过去很多年,本质上都在解决一个问题,车辆如何看见世界,以及如何把世界结构化。

Camera、Radar、Lidar,围绕感知网络、BEV、OCC、在线建图,再到后面的端到端、VLA,行业已经卷了很久。但到了 L2++、L3、L4 这个阶段,只看清楚已经不够了。

在一个非确定的环境下,感知前方车辆或障碍物并不算难;难的是如何判断交通参与者的意图,自车需不需要进行制动或者避让,以及当前动作之后整个交通场景会如何演化。

这就是物理 AI 和传统感知 AI 的分野。

  • 感知 AI 是在回答,世界现在是什么样子。

  • 物理 AI 要回答的是,世界接下来如何变化,车辆发生动作之后,世界又会怎么反应。

所以NVIDIA 把辅助驾驶和通用机器人放在同一个物理 AI 框架里,不是偶然。两者都不是静态识别任务,而是在连续时间里和真实世界互动。

02.

自动驾驶远没有到终局

NVIDIA给出了一个数据,很反直觉。

在全球出行经济数据里,乘用车是 15 亿辆,商用车和卡车是 2.8 亿辆,商用出租车是 1800 万辆,全球年度行驶里程是 13T,但自动驾驶里程只有 700M。

这个比例非常低,低到足以提醒我们:自动驾驶在全球出行系统里的真实渗透,仍然处在极早期。

粗略换算一下,自动驾驶里程在全球年度行驶里程里的占比,大约只有0.006%。

行业讨论自动驾驶已经很多年了,现在大家每天都在讨论端到端、VLA、城区 NOA、Robotaxi,但如果把视角拉到全球出行总量,自动驾驶仍然只是一个很小的变量。

真正的大规模应用,还远远没有被打开。

且自动驾驶并不是一个单点功能。未来会进入汽车、外卖、智慧城市、物流、农业、零售、医疗等大量物理世界场景。只要车和机器人开始真正进入开放环境,背后需要的就不只是一个更强的模型,而是一整套能够持续训练、验证、部署、回流的物理 AI 系统。

这也是这次 Workshop 里最值得关注的部分,NVIDIA 没有只讲一个模型。

03.

NVIDIA 的五层蛋糕,

真正想做的是自动驾驶生产系统

在NVIDIA的设计中,它把 DRIVE 全栈辅助驾驶平台拆成了「五层蛋糕」。

  • 最底层是硬件 DRIVE Hyperion,也就是 ECU 和传感器架构。

  • 往上是操作系统和平台软件 Halos OS,承担 Operating System 和 Safety Guardrails。

  • 再往上是模型 Alpamayo,也就是当前推出的开放推理模型。

  • 然后是应用 DRIVE AV,提供从辅助驾驶到全自动驾驶的软件栈。

  • 最上面是基础设施 Cosmos and Omniverse NuRec,对应 Data、Tools、Pipelines。

将这五层放在一起看,NVIDIA的愿景是搭建一套辅助驾驶的生产系统。在吴新宙展望的L4级自动驾驶愿景中,这套系统一定要能够规模化复制。

换一座城市、换一套传感器、换一个车型、换一类道路结构,系统都要继续工作。遇到 corner case 之后,数据要能回流,仿真要能复现,模型要能再训练,安全系统要能验证,车端还要能稳定部署。

这才是自动驾驶真正走向 L4 的工程问题。

所以 NVIDIA 的五层蛋糕,其实是在回答一个更底层的问题:辅助驾驶要从模型能力走向系统能力。

Hyperion 提供统一的车端硬件和传感器参考架构。Halos OS 提供安全底座。Alpamayo 提供车端的推理和轨迹输出能力。DRIVE AV 提供面向 L2++ 到 L4 的应用栈。Cosmos 和 Omniverse NuRec 提供数据、仿真和生成能力。

它们合在一起,才构成了 NVIDIA 对物理 AI 辅助驾驶的完整答案。

04.

Alpamayo 一直在升级

这篇文章里,自动驾驶之心最想重点聊的还是 Alpamayo。

去年十一月,我们就和大家分享过 Alpamayo 1.0。当时,我们判断 Alpamayo 是 NVIDIA 为辅助驾驶量产准备的车端推理 VLA 模型。

论文整体看下来,在工程上做的非常成熟,不是一个简单只在开放数据集上验证的VLA。

到了这次 Workshop,吴新宙分享了更多关于Alpamayo 1.5 的升级细节。

相比1.0的版本,1.5本次主要增加了导航功能,并且适配更多的传感器和配置。

从模型结构上看,是一个非常标准的推理型VLA。并且强调因果推理,即语言解释和自车轨迹的强耦合。

很多没实际参与过 VLA 模型训练的同学,可能不太理解这件事的难度。

以往大模型最大的诟病之一就是幻觉。放到自动驾驶里,幻觉和因果混淆都会非常危险。

举一个因果混淆的例子:车辆给出的语言解释是前方红灯,自车需要在斑马线前停车,但给出的轨迹却是一条继续直行的轨迹。

举一个幻觉的例子:模型误判前方有车辆,自车需要减速避让,但实际上前方道路状况良好,车辆可以正常行驶。

这些情况,都需要模型在数据、训练层面下很大功夫。

当然,如果直接去除语言输出(Driving Decision和Causal Reasoning是文本输出),只保留自车轨迹的输出,模型在数据闭环和车端训练上都会更容易,但对用户来说未必是最优解。

所以 Alpamayo 真正难的地方,是让语言解释、驾驶决策和轨迹输出在同一个因果链里闭合。

而因果推理和世界模型的关系非常近。

理解物理世界的变化趋势,因果推理是其中的关键能力之一。模型需要知道一个事件为什么发生,一个动作会带来什么后果,当前场景里真正影响决策的因素是什么。

这些问题,已经超出了传统感知分类和简单轨迹拟合。这也是我理解中,吴新宙说世界模型是自动驾驶最本质的一环的原因。

VLA 解决的是从视觉、语言到动作的推理链路。世界模型补上的是场景演化、动作后果和物理反馈。

到了自动驾驶这里,这两件事迟早要合到一起。

05.

8万小时训练数据背后,是一套数据金字塔

Alpamayo 能走到这一步,数据规模肯定是绕不开的。

吴新宙分享了 Alpamayo 开放模型训练的数据结构:底层是 2000 万小时真实世界视频,往上是 2 亿视频片段,也就是精选优质视频,再往上是 370 万推理样本,最终沉淀到 8 万小时辅助驾驶训练数据和70 万因果链数据。

不要小看 8 万小时的数据。

如果只是按 15 秒一个 Clip 粗略折算,8 万小时大约对应 2000 万条 Clip。这个规模,已经超过绝大多数车端模型的训练数据量。

另外,在 Alpamayo 的开放生态里,吴新宙提到Alpamayo 1.5 是 100 亿参数的模型。物理 AI 数据集则包括 30 万视频片段、1700 小时驾驶数据、覆盖 2500 个城市和 25 个国家。

这里真正值得注意的,是 NVIDIA 已经把数据组织成了明显的金字塔结构。

底层的真实物理世界视频;中间是精选的视频片段,负责筛选质量和多样性;上层是推理样本和因果链数据,用于训练模型理解驾驶决策背后的原因。

最终,才沉淀为面向辅助驾驶训练的高质量数据。

06.

NuRec,NVIDIA闭环仿真的起点

讲完 Alpamayo,就必须拆解下NVIDIA的闭环仿真系统 — NuRec。

很多人看到 Omniverse NuRec,第一反应可能是 3DGS、场景重建、仿真渲染。但NuRec 的定位明显不止于此。

现场的分享中,Omniverse NuRec 是基于真实世界数据大规模生成 3D 仿真。它包括 NCore 数据格式,Fixer 去除重建伪影,Asset Harvester 从图像中生成 3D assets,还有 NuRec Container 和 AlpaSim 这样的工作流与开放仿真框架。

吴新宙也直接展示了 NuRec 如何助力 Alpamayo 开发。

一个旧金山道路实测场景,可以先被重建成道路事件,再插入摩托车、滑板车、锥桶等干扰资产,生成新的轨迹和新的道路事件。

这套闭环仿真系统,基本上覆盖了工程上考虑的所有元素。

再结合前面聊到的车端模型,真实数据采集、数据处理、训练集和测试集构建、仿真验证、部署车队、corner event 回流、数据再生成,这些环节在 Alpamayo 的量产落地图里已经连成了一个闭环。

这条链路跑起来之后,世界模型才真的有意义。

07.

NVIDIA 做 L4,拼的是物理AI基础设施

分享完技术细节之后,最后聊一下我对 NVIDIA L4 布局的看法。

在NVIDIA设想的路线中,2025 年L2++ 开始量产;2026 年进入 L2++ 点到点辅助驾驶;2027 年推进 L4 级无人驾驶出租车和 L4 级乘用车;2028 到 2030 年继续推进 L4。

这条路线和很多 Robotaxi 公司不太一样,反而给我们的感觉很务实。

从去年的Alpamayo开始,到后面的FastDriveCoT和最新的数据工作MOSAIC,NVIDIA还是很有自己做辅助驾驶工程应用的思考。

在技术人的视角中,吴新宙这句「世界模型是自动驾驶最本质的一环」,其实不止是依据单纯的技术思考,背后更是NVIDIA对下一代量产落地方向的判断。

整场分享最大的感受是,NVIDIA 对 L4 的理解不会只落在某一辆车或者某一个城市,它要做的是一套可以规模化复制的物理 AI 自动驾驶底座。

而这个愿景,现在就在我们脚下。

自动驾驶之心

求点赞

求分享

求喜欢

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询