AI · 2026-01-06

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

2026 CES ,黄仁勋穿着皮夹克又来了。

不同的是,皮夹克换成了更贵的鳄鱼皮,也没有像往届一样发布备受关注的游戏显卡,这是五年来,英伟达首次在CES却没有发布电脑显卡。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

取而代之的是物理AI,黄仁勋在90分钟的新年第一讲中,藏不住对AI世界的野望,用他自己的话说,今天这里要“塞进去”的内容大概有15公斤那么多。

从前沿的算力架构、自动驾驶,到庞大的开源模型生态,再到多模态AI应用、物理AI、边缘计算等未来的AI应用,英伟达全都要。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

黄仁勋认为:“物理AI的‘ChatGPT时刻’近在咫尺,但挑战很明确。物理世界多样且不可预测。收集真实世界训练数据缓慢又昂贵,而且永远不够。所以答案是合成数据”?。

而在其看来,自动驾驶将会是最早受益的应用之一。

01 奔驰先吃螃蟹

“我们正站在一个关键拐点上——从‘非自动驾驶’向‘自动驾驶’过渡。这个转变,很可能就在未来十年内发生。”黄仁勋相当确信,全球将有非常非常大比例的汽车,会实现自动驾驶或高度自动驾驶。

在90分钟的演讲中,有关自动驾驶的内容占据了很大比重。

因为其开源了英伟达最新的自动驾驶大模型 Alpamayo,不仅对模型进行了开源,还开源了训练这些模型所使用的数据。这也意味着,很多此前不具备VLA模型开发经验的中小团队,也能获得与巨头同等的技术积累,自动驾驶研发门槛一夜就被削去了。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

黄仁勋表示,这是全球首个具备思考、推理能力的自动驾驶汽车AI,其中包括全球首个用于自动驾驶的开源推理VLA模型Alpamayo R1,和用于高保真自动驾驶测试的完全开源仿真框架AlpaSim。

用黄仁勋话来说,Alpamayo 是真正意义上的端到端:从摄像头输入,到执行器输出。它使用了大量由人类驾驶员驾驶的真实里程数据,也使用了大量由Cosmos 生成的合成里程数据。除此之外,还有数十万个样本被极其精细地标注,用来教会这辆车如何驾驶。

Alpamayo最大的突破在于它是“推理型”自动驾驶模型,用以解决驾驶存在着极其庞大的“长尾问题”。

传统自动驾驶系统是“感知-规划-控制”的流水线架构,看到红灯就刹车,看到行人就减速,遵循预设规则。而Alpamayo引入了“推理”能力,理解复杂场景中的因果关系,预测其他车辆和行人的意图,甚至能处理需要多步思考的决策。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

比如在十字路口,它不只是识别出“前方有车”,而是能推理”那辆车可能要左转,所以我应该等它先过”,这种能力让自动驾驶从“按规则行驶”升级到“像人一样思考”。现场演示中,老黄给出了一段Alpamayo全程零接管点到点的Demo。

这其中得益于Cosmos物理AI世界基础模型,用海量视频、真实驾驶与机器人数据,以及3D模拟做过预训练,它能理解世界是怎么运行的,把语言、图像、3D和动作联系起来。

依据3D场景生成逼真的视频,根据驾驶数据生成符合物理规律的运动,还能从模拟器、多摄像头画面或文字描述生成全景视频,就连罕见场景,也能还原出来。

结果就是,规划精度提升12%、越界率降低35%、近碰率降低25%、推理-行动一致性提升37%、端到端延迟降低到99ms。

之所以能够解决驾驶中的“长尾问题”,黄仁勋用了更通俗易懂的话来表述,核心在于“拆解”。

黄仁勋承认,我们不可能收集到在每一个国家、每一种环境、每一种条件下、对所有人群来说、可能发生的每一个场景的数据。然而非常重要的一点是,如果把这些场景拆解成许多更小的子场景,它们其实对人类来说都是非常常见、非常容易理解的情况。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

“这些长尾场景可以被分解为一系列“正常情况”,而车辆已经知道如何应对这些情况,它只需要对当前情境进行推理即可。”

为了解决“没有人能在‘无限长时间的真实驾驶’之前,百分之百确信它绝对安全”的问题,黄仁勋在Alpamayo还是用了一整套完整的自动驾驶栈,用来兜底。

简单来说,两套软件系统彼此镜像、相互对照运行,另外还有一套策略与安全评估器,用来判断当前,这个驾驶场景,是否具备足够高的置信度,能够安全地进行推理和驾驶。如果能,则交由Alpamayo执行。如不能,安全与策略评估器判断需要回退到一个更简单、更安全的护栏系统,那么系统就会切换回传统的自动驾驶软件栈。

黄仁勋表示,搭载英伟达自动驾驶软件的全新奔驰CLA是全球唯一同时运行这两套自动驾驶系统的汽车。

没错,奔驰是第一个吃螃蟹的,新款奔驰CLA会首发搭载英伟达Alpamayo方案,而且在刚刚黄仁勋展示的Demo中,并没有隐藏车辆信息,正是全新奔驰CLA。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

其也宣布,将于今年第一季度在美国正式上路,随后在第二季度进入欧洲,他还预计第三和第四季度会进入亚洲。

另外,开源的仿真框架AlpaSim也已在GitHub开放,能够高保真验证自动驾驶系统,为开发者提供安全、可扩展的虚拟测试环境。

“开发者还可以使用Cosmos生成合成数据,并在真实数据和合成数据的结合上训练和测试基于Alpamayo的自动驾驶应用。”英伟达汽车部门副总裁Ali Kani表示。

02 物理AI的ChatGPT时刻快来了

作为开年第一讲,绝不仅仅只涉及自动驾驶,重头戏更在物理AI的计算跃进上,Alpamayo也只是其中一环。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

在整个AI体系中,最重要的莫过于,其面向人工智能数据中心的全新计算平台 Vera Rubin,黄仁勋在演讲中花了近 10 分钟来介绍其设计初衷、架构、技术细节等信息。

据黄仁勋介绍,AI 所需的计算量正在飙升,对英伟达 GPU 的需求也急剧增长。这是因为 AI 模型的规模每年都在以10倍的速度增长,而Vera Rubin 超算正是为了应对目前行业面临的根本性挑战而设计。

Vera Rubin架构,通过Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4数据处理单元(DPU)、Spectrum-6 Ethernet switch这六大芯片的的协同设计,以实现更快的数据共享和更低的延迟,从而优化大规模AI模型的训练和推理。

其中,硬件核心是Rubin GPU和VeraCPU,英伟达Rubin GPU 是Rubin 架构中负责 AI 计算的核心芯片,目标是显著降低推理与训练的单位成本,而Vera CPU是专为数据移动和Agentic处理设计的核心组件。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

NVLink-6负责GPU内部协同计算,BlueField-4负责上下文与数据调度,而ConnectX-9则承担系统对外的高速网络连接。它确保Rubin系统能够与其他机架、数据中心和云平台高效通信,是大规模训练和推理任务顺利运行的前提条件。

繁琐的专业话术不再赘述,核心思路就是,不再依靠堆卡,而是把整个数据中心变成一台AI超算,相比参数,结果更重要。

结果就是,相比上一代Blackwell平台,性能提升高达5倍,而功耗仅增加1.6倍。 这使得Vera Rubin架构整体能够在相同时间内训练大型“混合专家”(Mixture of Experts, MOE)AI模型,可将推理阶段的 token 成本最高降低10倍,并将训练混合专家模型(MoE)所需的 GPU 数量减少至原来的1/4。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

反过来看,这也意味着Rubin能在相同机架空间内,大幅提升训练吞吐量,并生成远多于以往的token数量,而训练越快,就能越早将下一代前沿技术推向市场。“这关乎着你的定价权”,黄仁勋颇为自豪的表示。

最重要的,这个平台已进入全面生产阶段,预计2026下半年开始出货。

最后还有小彩蛋,黄仁勋现场还透露了,马斯克的Grok 5下一代模型的参数规模将是7万亿,而不是之前盛传的10万亿。

当然,以上这些还远远不是黄仁勋演讲的所有内容,比如机器人的“全家桶”秀,舞台上站满了不同形态、不同用途的机器人,从人形机器人、双足与轮式服务机器人,甚至还有CAT旗下的工程机械车。

黄仁勋开源VLA模型 一夜削平自动驾驶门槛

还有涵盖多个领域的开源模型全家桶:针对医疗健康与生命科学领域的AI技术工具Clara、面向AI物理模拟Earth-2、专注AI智能体领域的Nemotron专项模型。

英伟达在CES上展示的这些,已经不难看出其野心,正如黄仁勋在结尾时说的那样:今天的英伟达早已不仅是芯片公司,他们所构建的是完整的全栈AI体系——从芯片、系统、基础设施,到模型和应用。

Translate »