2026-02-13 17:47:12来源: 网络作者:admin
不同的是,皮夹克换成了更贵的鳄鱼皮,也没有像往届一样发布备受关注的游戏显卡,这是五年来,英伟达首次在CES却没有发布电脑显卡。
取而代之的是物理AI,黄仁勋在90分钟的新年第一讲中,藏不住对AI世界的野望,用他自己的话说,今天这里要“塞进去”的内容大概有15公斤那么多。
从前沿的算力架构、自动驾驶,到庞大的开源模型生态,再到多模态AI应用、物理AI、边缘计算等未来的AI应用,英伟达全都要。
黄仁勋认为:“物理AI的‘ChatGPT时刻’近在咫尺,但挑战很明确。物理世界多样且不可预测。收集真实世界训练数据缓慢又昂贵,而且永远不够。所以答案是合成数据”?。
而在其看来,自动驾驶将会是最早受益的应用之一。
01 奔驰先吃螃蟹
“我们正站在一个关键拐点上——从‘非自动驾驶’向‘自动驾驶’过渡。这个转变,很可能就在未来十年内发生。”黄仁勋相当确信,全球将有非常非常大比例的汽车,会实现自动驾驶或高度自动驾驶。
在90分钟的演讲中,有关自动驾驶的内容占据了很大比重。
由于其开源了英伟达最新的自动驾驶大模型Alpamayo,除了模型本身,连训练这些模型所用的数据也一并开源了。这就意味着,不少之前缺乏VLA模型开发经验的中小团队,也能拥有和行业巨头相当的技术积累,自动驾驶的研发门槛在一夜之间就被大幅降低了。
黄仁勋表示,这是全球首个具备思考、推理能力的自动驾驶汽车AI,其中包括全球首个用于自动驾驶的开源推理VLA模型Alpamayo R1,和用于高保真自动驾驶测试的完全开源仿真框架AlpaSim。
按照黄仁勋的说法,Alpamayo实现了真正的端到端闭环:覆盖从摄像头输入到执行器输出的完整链路。它不仅采用了海量人类驾驶员积累的真实行驶里程数据,还整合了Cosmos生成的大量合成里程数据。在此基础上,更有数十万个经过超高精度标注的样本,专门用于训练车辆掌握驾驶技能。
Alpamayo最大的突破在于它是“推理型”自动驾驶模型,用以解决驾驶存在着极其庞大的“长尾问题”。
传统自动驾驶系统是“感知-规划-控制”的流水线架构,看到红灯就刹车,看到行人就减速,遵循预设规则。而Alpamayo引入了“推理”能力,理解复杂场景中的因果关系,预测其他车辆和行人的意图,甚至能处理需要多步思考的决策。
在十字路口,它并非仅仅识别出“前方有车”,而是能够推断“那辆车或许要左转,因此我应当等它先通过”,这种能力使自动驾驶从“依规则行驶”进阶为“如同人一般思考”。在现场演示里,老黄展示了一段Alpamayo全程无接管的点到点演示视频。
这其中得益于Cosmos物理AI世界基础模型,用海量视频、真实驾驶与机器人数据,以及3D模拟做过预训练,它能理解世界是怎么运行的,把语言、图像、3D和动作联系起来。
依据3D场景生成逼真的视频,根据驾驶数据生成符合物理规律的运动,还能从模拟器、多摄像头画面或文字描述生成全景视频,就连罕见场景,也能还原出来。
结果就是,规划精度提升12%、越界率降低35%、近碰率降低25%、推理-行动一致性提升37%、端到端延迟降低到99ms。
之所以能够解决驾驶中的“长尾问题”,黄仁勋用了更通俗易懂的话来表述,核心在于“拆解”。
黄仁勋承认,我们不可能收集到在每一个国家、每一种环境、每一种条件下、对所有人群来说、可能发生的每一个场景的数据。然而非常重要的一点是,如果把这些场景拆解成许多更小的子场景,它们其实对人类来说都是非常常见、非常容易理解的情况。
“这些长尾场景可以被分解为一系列“正常情况”,而车辆已经知道如何应对这些情况,它只需要对当前情境进行推理即可。”
为了解决“没有人能在‘无限长时间的真实驾驶’之前,百分之百确信它绝对安全”的问题,黄仁勋在Alpamayo还是用了一整套完整的自动驾驶栈,用来兜底。
简单来讲,两套软件系统互为镜像、对照运行,同时配备一套策略与安全评估器,用于判断当下的驾驶场景是否拥有足够高的置信度,足以支撑安全的推理与驾驶操作。若评估结果为是,便由Alpamayo负责执行;若评估认为需要回退至更简单、更安全的护栏系统,那么系统就会切换回传统的自动驾驶软件栈。
黄仁勋表示,搭载英伟达自动驾驶软件的全新奔驰CLA是全球唯一同时运行这两套自动驾驶系统的汽车。
没错,奔驰是第一个吃螃蟹的,新款奔驰CLA会首发搭载英伟达Alpamayo方案,而且在刚刚黄仁勋展示的Demo中,并没有隐藏车辆信息,正是全新奔驰CLA。
其也宣布,将于今年第一季度在美国正式上路,随后在第二季度进入欧洲,他还预计第三和第四季度会进入亚洲。
另外,开源的仿真框架AlpaSim也已在GitHub开放,能够高保真验证自动驾驶系统,为开发者提供安全、可扩展的虚拟测试环境。
“开发者还可以使用Cosmos生成合成数据,并在真实数据和合成数据的结合上训练和测试基于Alpamayo的自动驾驶应用。”英伟达汽车部门副总裁Ali Kani表示。
02 物理AI的ChatGPT时刻快来了
作为开年第一讲,绝不仅仅只涉及自动驾驶,重头戏更在物理AI的计算跃进上,Alpamayo也只是其中一环。
在整个AI体系中,最重要的莫过于,其面向人工智能数据中心的全新计算平台 Vera Rubin,黄仁勋在演讲中花了近 10 分钟来介绍其设计初衷、架构、技术细节等信息。
据黄仁勋介绍,AI 所需的计算量正在飙升,对英伟达 GPU 的需求也急剧增长。这是因为 AI 模型的规模每年都在以10倍的速度增长,而Vera Rubin 超算正是为了应对目前行业面临的根本性挑战而设计。
Vera Rubin架构整合了Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4数据处理单元(DPU)与Spectrum-6以太网交换机这六类核心芯片,并对它们进行协同化设计,以此达成更高效的数据共享与更低的延迟表现,进而为大规模AI模型的训练及推理过程提供优化支持。
其中,硬件的核心部分为Rubin GPU与Vera CPU。英伟达Rubin GPU作为Rubin架构里承担AI计算任务的核心芯片,旨在大幅削减推理和训练的单位成本;Vera CPU则是专门针对数据移动以及Agentic处理而设计的核心组件。
NVLink-6承担GPU内部协同计算的职责,BlueField-4负责上下文与数据调度工作,ConnectX-9则负责系统对外的高速网络连接。它保障了Rubin系统能与其他机架、数据中心及云平台高效通信,是大规模训练和推理任务顺利开展的必要前提。
繁琐的专业话术不再赘述,核心思路就是,不再依靠堆卡,而是把整个数据中心变成一台AI超算,相比参数,结果更重要。
结果是,和上一代Blackwell平台相比,性能提升幅度达到5倍之高,而功耗仅增加1.6倍。这让Vera Rubin架构在整体上能在相同时间里训练大型“混合专家”(Mixture of Experts, MOE)AI模型,还可以把推理阶段的token成本最多降低10倍,同时将训练混合专家模型(MoE)需要的GPU数量减少到原来的四分之一。
反过来看,这也意味着Rubin能在相同机架空间内,大幅提升训练吞吐量,并生成远多于以往的token数量,而训练越快,就能越早将下一代前沿技术推向市场。“这关乎着你的定价权”,黄仁勋颇为自豪的表示。
最重要的,这个平台已进入全面生产阶段,预计2026下半年开始出货。
最后还有小彩蛋,黄仁勋现场还透露了,马斯克的Grok 5下一代模型的参数规模将是7万亿,而不是之前盛传的10万亿。
当然,以上这些还远远不是黄仁勋演讲的所有内容,比如机器人的“全家桶”秀,舞台上站满了不同形态、不同用途的机器人,从人形机器人、双足与轮式服务机器人,甚至还有CAT旗下的工程机械车。
还有涵盖多个领域的开源模型全家桶:针对医疗健康与生命科学领域的AI技术工具Clara、面向AI物理模拟Earth-2、专注AI智能体领域的Nemotron专项模型。
英伟达在CES上展示的这些,已经不难看出其野心,正如黄仁勋在结尾时说的那样:今天的英伟达早已不仅是芯片公司,他们所构建的是完整的全栈AI体系——从芯片、系统、基础设施,到模型和应用。
免责声明:文章图片应用自网络,如有侵权请联系删除