文 | 赛博汽车
在 2026 年 CES 的聚光灯下,黄仁勋莫得只是挑剔芯片的算力,而是描绘了一个行将被智能体深度融入的推行全国。
" AI 的第二个拐点仍是到来——从判辨讲话到判辨物理全国,从软件智能体到具身智能体"。
当地时分 1 月 5 日,英伟达 CEO 黄仁勋身穿标记性皮衣登台,围绕"物理 AI "张开了一场 90 分钟的主题演讲。
英伟达 CEO 黄仁勋
他指出,物理 AI 不仅涵盖视觉与讲话判辨,更交融重力、摩擦、惯性等物理动态,粗略在确切全国中实行复杂任务,改日将重塑民众 1000 万家工场与 20 万个仓库的运作格式。
这一愿景背后,依托三大时刻支捏:Newton 物理引擎,及时缠绵物理全国模子,反当令分低于 0.01 秒,适用于机器东说念主及自动驾驶场景;Cosmos 基础模子平台,支捏多模态物理全国判辨,已进修 1000 亿参数,推理蔓延降至 1 毫秒;GPU+LPU 混划算力架构,GPU 负责进修,LPU 专注低蔓延推理,效用升迁 100 倍,老本裁汰 90%。
黄仁勋强调:" AI 的价值不再仅由算力决定,而由场景界说。物理全国恰是 AI 最大的诳骗场景。"为此,英伟达将捏续提供算力基石,并在自动驾驶、机器东说念主等边界激动开源产物落地。
黄仁勋指出,"通达模子已波及前沿,诚然仍踏实地逾期前沿模子六个月,但每隔六个月,一个新的模子就会出现。英伟达不仅开源模子,还将开源进修数据,让建造者着实判辨模子的构建经由。"
01 Rubin 架构细密登场,下半年量产
任何时刻改进皆离不开底层算力的支捏。"咱们必须每年激动缠绵时刻上前越过,一刻也不可蔓延。"发布会上,黄仁勋细密发布了英伟达下一代 AI 数据中心计柜架构—— Vera Rubin。
该架构定名致意天体裁家 Vera Rubin,她在暗物资商榷边界赢得了打破性推崇,其商榷后果透澈改动了东说念主类对六合的领路。
而这,亦然每一代英伟达 GPU 架构的定名民风。
黄仁勋这次败露了 Rubin 架构的更多细节:它由六类芯片组成,包括 Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 数据处理单位和 Spectrum-6 以太网交换机,共同组成 Vera Rubin NVL72 机架。
行动首款定制 CPU+GPU 协同想象的产物,取舍台积电 2nm 工艺,集成了 Rubin GPU 与专为智能体推理打造的 Vera CPU,算力已毕显赫跃升。
Rubin 架构包含 3360 亿个晶体管,NVFP4 数据类型下,Rubin GPU 推感性能达到 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 进修性能高达 35 PFLOPS,是 Blackwell 的 3.5 倍。
为粗糙开阔的缠绵资源需求,每款 Rubin GPU 皆配备了 8 个 HBM4 显存堆栈,提供 288GB 的容量和 22 TB/s 的带宽。
与此同期,跟着大型讲话模子从激活扫数参数以生成给定输出词元的密集架构,转向每个词元仅激活部分可用参数的大家羼杂(MoE)架构,这些模子的膨大效用得以相对提高。然则,模子里面大家之间的通讯需要多量的节点间带宽。
为此,Vera Rubin 数据中心架构引入了用于范畴内膨大网罗的 NVLink 6,将单 GPU 的互连带宽升迁至 3.6 TB/s(双向)。每颗 NVLink 6 交换芯片提供 28 TB/s 的带宽,而每个 Vera Rubin NVL72 机架配备 9 颗这么的交换芯片,总范畴内带宽达到 260 TB/s。
NVIDIAVera CPU 集成了 88 个定制的 Olympus Arm 中枢,取舍" spatial multi-threading "(空间多线程)想象,最多可同期运转 176 个线程。用于将 Vera CPU 与 Rubin GPU 进行一致性集会的 NVLink C2C 互连,其带宽升迁了一倍,达到 1.8 TB/s。每颗 Vera CPU 可寻址最多 1.5 TB 的 SOCAMM LPDDR5X 内存,内存带宽最高可达 1.2 TB/s。
为了将 Vera Rubin NVL72 机架膨大为每组包含八个机架的 DGX SuperPod,英伟达推出了两款取舍 Spectrum-6 芯片的 Spectrum-X 以太网交换机,每颗 Spectrum-6 芯片可提供 102.4 Tb/s 的带宽,Nvidia 将其诳骗于两款交换机中。
据黄仁勋先容,每个 Vera Rubin NVL72 机架可提供 3.6 exaFLOPS 的 NVFP4 推感性能、2.5 exaFLOPS 的 NVFP4 进修性能,集会至 Vera CPU 的 54 TB LPDDR5X 内存,以及 20.7 TB 的 HBM4 内存,带宽达 1.6 PB/s。
"与 Blackwell 比拟,Vera Rubin 在进修 MoE 模子时所需的 GPU 数目仅为四分之一;在 MoE 推理场景下,其每 token 老本最高可裁汰 10 倍"。黄仁勋暗意,Rubin 能在疏通机架空间内大幅升迁进修速率,并输出更多 token。
他暴露,Rubin 系列芯片仍是全面投产,并将于本年下半年推出,病笃诳骗于物理 AI 进修、机器东说念主模拟、自动驾驶仿真等边界,其订单范畴已达 3000 亿好意思元,微软下一代 Fairwater AI 超等工场、CoreWeave 等将成为首批诳骗者。
除了发布新产物,黄仁勋也公布了一些"老一又友"的推崇:Blackwell Ultra 量产加快,2026 年 Q2 全面供货,单机算力升迁 50% 的同期功耗裁汰 30%,适配机器东说念主旯旮缠绵场景。
02 从自动驾驶到机器东说念主,构建通达时刻栈
芯片是算力的基石,场景则是"物理 AI "的价值处所。其中,自动驾驶是中枢落地场景之一。
在黄仁勋看来,现时援助驾驶系统在支吾"长尾场景"时仍靠近挑战。传统将感知与筹备隔离的援助驾驶架构,在突发或额外情况下存在泛化与可线路性不及的问题。
为此,英伟达发布首个专为自动驾驶汽车想象的"推理" AI:Alpamayo,这是一个新系列的通达模子、模拟用具和数据集,专为基于推理的驾驶系统而想象。该系列引入基于想维链的 VLA(Vision-Language-Action)推理模子,用于对复杂驾驶场景进行慢慢推演和逻辑抒发,以升迁有规划透明度。
Alpamayo 系列包括三部分:
一是 Alpamayo1,一款约 100 亿参数范畴的想维链推理模子,已在 Hugging Face 上开源,以使汽车粗略判辨周围环境并线路其行动,用于商榷、模子蒸馏及建造援助用具。
二是 AlpaSim,一套绝对开源的端到端援助驾驶仿真框架,已在 GitHub 发布,支捏在多种环境和旯旮案例中进行闭环进修和评估。
三是物理 AI 通达数据集,包含卓越 1700 小时的确切说念路驾驶数据,秘籍不同区域和环境要求,并包含一定比例的复杂和荒废场景。
这些用具共同组成了一个自我强化的建造闭环,助力构建基于推理的自动驾驶时刻栈。
不外,Alpamayo 模子并非凯旋在车端运转,而是行动大范畴的"教学模子"。建造者不错对其进行微斡旋蒸馏,移动为各自齐全自动驾驶时刻栈的中枢骨架。黄仁勋指出,Alpamayo 系列为一个内聚的通达生态系统,任何汽车建造商或商榷团队皆不错在此基础上进行建造。
据黄仁勋暴露,Alpamayo 将最先搭载于 2025 款梅赛德斯 - 飞奔 CLA 车型,后续通过 OTA 升级慢慢推送高速公路早先驾驶、城市全场景自动驾驶、端到端自动停车等功能,并慢慢登陆好意思、欧、亚阛阓。" Lucid、捷豹路虎、Uber 和 DeepDrive 等企业也但愿基于 Alpamayo 已毕 L4 级自动驾驶。"
有酷爱酷爱的是,驰名特斯拉投资者 Sawyer Merritt 共享了英伟达发布会视频和干系细节,指出 Alpamayo 将最先搭载梅赛德斯 CLA。特斯拉 CEO 马斯克很快报恩说念:"这恰是特斯拉正在作念的。他们会发现,达到 99% 很容易,但措置溜达的长尾问题超等难。"
此外,黄仁勋还指出,升级后的 Drive Thor 算力达到 2000TOPS,已斩获 15+ 车企订单,将于 2027 年量产。
"咱们的愿景是,改日有一天,每一辆汽车、每一辆卡车皆将已毕自动驾驶。"黄仁勋指出,自动驾驶汽车的期间仍是全面到来,自动驾驶汽车将成为"首个大范畴的、面向主流阛阓"的物理 AI 诳骗场景。
除了自动驾驶除外,具身智能亦然物理 AI 的一大诳骗阛阓。英伟达为机器东说念主推出的"大脑" Cosmos 也再度升级,它主要被用来生成允洽推行全国物理规章的合成数据。
这次 Cosmos 主要升级了三部分。
Cosmos Transfer 2.5 和 Cosmos Predict 2.5:开源、绝对可定制的全国模子,为物理 AI 已毕基于物理旨趣的合成数据生成与机器东说念主策略评估的仿真支捏。
Cosmos Reason 2:开源推理视觉讲话模子(VLM),使智能机器粗略像东说念主类相似看见、判辨物理全国并取舍行动。
Isaac GR00T N1.6:专为东说念主形机器东说念主打造的通达式推理视觉讲话行动(VLA)模子,可解锁全身拔除才气,并借助 Cosmos Reason 增强推理和陡立文判辨。
从再行界说算力极限的 Rubin 架构嘉兴互动会议直播系统,到为自动驾驶注入想维链的 Alpamayo,机器东说念主"大脑" Cosmos 升级,英伟达的战术图谱了了显现:它正辛苦于于成为智能体判辨并行动于物理全国的"使能层"。












