腾讯科技 6小时前
一文读懂英伟达GTC 2026:芯片全家桶上线,给“龙虾”装安全围栏
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文丨李海伦 苏扬

编辑丨徐青阳

北京时间 3 月 17 日凌晨,英伟达(股票代码:NVDA)GTC2026 大会拉开帷幕。作为全球 AI 产业最受关注的年度时刻之一,GTC 大会被称为 "AI 春晚 ",其中黄仁勋的主题演讲亦备受关注。

大会之前,黄仁勋抛出过一个产业模型为 GTC 预热,指出 "AI 是一块五层蛋糕(AI is a Five-Layer Cake)",从底座向上分别为:能源、电力,芯片、算力基础设施,再到模型与应用,AI 已经形成一个全新的产业技术栈,并正在引发人类历史上规模最大的基础设施建设之一。

黄仁勋说:" 这次大会将覆盖人工智能五层架构的每一层,当然还有最重要的一层,也是最终真正推动这个行业腾飞的——应用。"

黄仁勋指出,随着推理需求的爆发,正在推动英伟达的市场规模和客户结构同步扩张。

回望 2025 年 10 月的华盛顿 GTC 大会,黄仁勋曾指出,到 2026 年底,英伟达凭借现有及未来的数据中心芯片,将撬动约 5000 亿美元的收入规模。

这次 GTC 的演讲台上,老黄再次给出预判:几个月后,随着 Blackwell 与 Rubin 架构的全面接力,他所预见的市场机会已翻倍跨越。他明确表示,预计到 2027 年底,英伟达新一代 AI 芯片的累计营收将正式跨入 1 万亿美元时代。

本次 GTC 2026 发布的最核心主题——以 Vera Rubin 为代表的 " 芯片全家桶 ",构成了这一代 Vera Rubin 机架的系统级基础设施,其中包括:Vera CPU、Rubin GPU、NVLink 6 Switch(高速互联)、ConnectX-9 SuperNIC(超级网卡)、BlueField-4 DPU(数据处理单元)、Spectrum-6 以太网交换机。

英伟达甚至还准备将 AI 算力 " 送上天 ",推出面向轨道环境运行的 Vera Rubin Space Module,用于支持卫星和空间任务中的边缘智能计算。

值得注意的是,此次 GTC,Groq 3 LPU 推理加速器也完成了首秀。

此前,2025 年 12 月,英伟达以约 200 亿美元完成了对 Groq 核心技术资产的收购,Groq 创始人 Jonathan Ross 加入英伟达担任首席软件架构师,Groq 3 LPU 正是这笔收购正式落地的第一个公开成果。

另外,席卷中美两地开发者社区的 " 龙虾热 ",在本次 GTC 上也得到了体现。

黄仁勋推出面向 OpenClaw 生态的 NemoClaw 方案,在 OpenClaw 原有智能体能力的基础上,叠加了 NVIDIA Nemotron 开放模型,可以让龙虾更聪明,同时内置一套实时安全管控机制,相当于给智能体配了一个全程在线的 " 保安 "。

整个 2 个多小时下来,英伟达 GTC 给人 " 系统级 " 概念印象非常深刻:早期突出的是算力、互联,到最近两年强化对系统级能力,甚至是 AI 工厂这种综合型基础设施的探索,所以大家会看到,黄仁勋在大会上已不再是单纯强调单一的算力芯片,取而代之的 " 芯片全家桶 "、" 算力全家桶 " 这种系统级解决方案。

01. Vera Rubin 平台:推理效率提升 10 倍,token 成本降至十分之一

黄仁勋介绍 Vera Rubin 平台

早在 2024 年 Computex 上,黄仁勋就首次披露了 Rubin 架构,并宣布其将接替 Blackwell 成为下一代 AI GPU 架构。随后在 2025 GTC 上,展示了搭载 Vera CPU 与 Rubin GPU 的 Superchip 原型,但当时仍停留在单板级产品阶段。

2026 年 CES,Rubin 首次以完整平台形态出现,由六颗核心芯片协同工作,构成一台机架级 AI 超级计算机。

而在本次 GTC 2026 上,英伟达又进一步将 Groq 的 LPU 推理架构整合进平台,并首次将 AI 工厂、电力调度与智能体运行环境纳入统一架构。

Vera Rubin 平台主要芯片和组件包括 Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch,也包含了新整合的 Groq 3 LPU,组成一台超级 AI 计算机。

相当于把过去只有超大型科技公司才能搭建的 AI 超算能力,做成了一套可直接部署的标准机架。既能训练更大的模型,也能让 AI 像人一样持续工作、更低成本地处理复杂任务。

黄仁勋表示:"Vera Rubin NVL72 机架:集成 72 颗 Rubin GPU 和 36 颗 Vera CPU,通过 NVLink 6 高速互联。相比上代 Blackwell 平台,NVL72 训练大型混合专家(MoE)模型所需 GPU 数量仅为四分之一,推理吞吐量 / 瓦特提升高达 10 倍,单 token 成本降至原来的十分之一 "。

黄仁勋指出,Vera Rubin 架构与 LPX 软件平台的深度协同,将通过单体算力价值的 10 倍跃升,开启高达 3000 亿美元的年收入机遇。

02. Vera CPU:专为 Agentic AI 打造的新一代处理器

英伟达正式发布了自研 Vera CPU。

黄仁勋表示,这是全球首款专为 "AI 智能体时代 " 与 " 强化学习 " 设计的处理器。该芯片搭载 88 颗自研 Olympus 核心,性能较传统 CPU 快 50%,能效提升达 2 倍。

Vera CPU 更像是智能体系统背后的 " 指挥与调度中心 "。因为进入 AI 智能体时代后,很多工作并不只是生成答案,还需要同时管理大量并发任务,例如运行强化学习环境、调用外部工具、执行代码、校验数据结果。这类复杂的编排任务对 CPU 的单线程性能和带宽提出了前所未有的要求。

也正因为如此,Vera CPU 的设计重点不只是单纯提升算力,而是让大量 AI 环境能够同时稳定运行,基于 NVIDIA 空间多线程(Spatial Multithreading)技术,每颗核心可同时处理两个任务,确保了大规模 AI 服务的响应速度。

Vera CPU 采用 LPDDR5X 内存,带宽高达 1.2TB/s,是同类通用 CPU 的两倍,功耗仅为一半。结合 NVLink-C2C 技术,其与 GPU 间的互联带宽达 1.8 TB/s,是传统 PCIe Gen 6 的 7 倍。

单个 Vera CPU 机架可集成 256 颗液冷方案 Vera CPU,支持超过 22500 个并发线程独立满负荷运行,专为大规模 "AI 工厂 " 而生。

据介绍,目前已计划部署 Vera CPU 的云客户包括:Meta、Oracle Cloud、CoreWeave 等;制造合作商涵盖戴尔、HPE、联想、超微电脑、华硕、富士康等。Redpanda 的测试显示,Vera 在处理实时数据流时的延迟降低了 5.5 倍。相关产品预计将于 2026 年下半年上市。

03 Groq 3 LPX/LPU:填补 GPU 推理短板,超低延迟推理加速器

Groq 3 LPU 芯片是英伟达专为极致低延迟推理设计的全新处理器。

在 AI 智能体时代,推理侧需求正加速分化:大模型训练依赖 GPU 的高吞吐算力,而面对需要极高交互性、超短响应时间的智能体任务,传统 GPU 架构存在性能冗余。为此,英伟达正式引入 LPU 架构,专注于 " 极致低延迟的 token 生成 "。

在硬件设计上,Groq 3 LPU 芯片展现了与传统 GPU 截然不同的技术路线。它摒弃了容量大但延迟相对较高的 HBM 显存,单颗芯片集成了 500MB 的片上 SRAM。虽然容量仅为 Rubin GPU 的五百分之一,但其提供的带宽高达 150 TB/s,是 HBM4(22 TB/s ) 的近 7 倍。

基于该芯片,英伟达推出了 Groq 3 LPX 平台(机架)。该平台采用液冷散热,单个机架配备 256 颗 LPU 处理器,累计提供 128GB 片上 SRAM,总扩展带宽达 640TB/s。LPX 平台作为 Vera Rubin 架构中的关键补齐,专注于承载大规模、高并发的低延迟推理工作负载。

当 Groq 3 LPX 平台与 Vera Rubin NVL72 结合使用时,这种混合架构实现了 GPU 强劲算力与 LPU 极致带宽的完美互补。在百万 token 上下文场景下,其收益潜力可大幅提升。 该芯片及平台预计将于 2026 年下半年正式上市。

04 Vera Rubin Space Module:AI 算力飞向太空

英伟达这次还把 AI 算力直接送上了太空,发布了专门面向轨道数据中心(ODC)和太空操作的 Vera Rubin Space Module。

根据介绍,传统卫星的工作模式是拍摄后将海量数据下载到地面处理,但这套流程正被 " 数据洪流 " 压垮。因为一颗地球观测卫星每天可产生数 TB 数据,而星地通信带宽有限、窗口期短,大量数据积压等待传输。从拍摄到分析结果返回可能耗时数小时,错过灾害预警等场景的黄金窗口。

Vera Rubin Space Module 的核心思路是边缘智能,让卫星在轨完成目标检测和变化分析,只下传有价值的结果而非原始数据,从而大幅降低传输压力。

英伟达表示,目前,像 Axiom Space、Planet Labs 这些太空赛道的头牌公司,已开始用英伟达的加速平台来跑下一代太空任务了。有了这种算力加持,无论是卫星自主运行还是地理空间智能分析,都将从 " 慢动作 " 变成实时响应。

黄仁勋表示:" 相比 H100 GPU,Rubin Space Module 在太空推理算力上提升最高 25 倍,真正将数据中心级 AI 算力带入太空 "。

05 BlueField-4 STX:AI 原生存储架构

英伟达正式发布 BlueField-4 STX 模块化存储参考架构,其基于 BlueField-4 DPU 和 CMX 存储模块组件,旨在为 AI 智能体的长上下文推理提供底层 KV Cache 存储支撑。

BlueField-4 STX 扮演着 AI 智能体 " 外部上下文记忆体 " 的关键角色。它打破了传统数据中心存储的性能瓶颈,使智能体在处理超长上下文、跨工具调用及多轮任务协作时,无需频繁重复计算,从而确保了推理过程的连贯性与响应速度。

相比传统存储架构,STX 可提供高达 5 倍的 token 吞吐量及 4 倍的能效提升,并将数据摄取速度翻倍。

目前,CoreWeave、Oracle ( OCI ) 、Mistral AI 及 Lambda 等首批行业领先者已宣布采用 STX 作为其上下文记忆存储方案。相关系统预计将于 2026 年下半年正式上市。

06 NemoClaw for OpenClaw:个人 AI 智能体平台

英伟达面向企业和开发者推出了完整的智能体开发平台 NVIDIA Agent Toolkit。

该平台以开源方式开放,核心定位是让 AI 智能体在自主高效完成任务的同时,确保环境的安全可控。

黄仁勋表示,该平台由四大核心组件构成:

●以 Nemotron 3 Super 为代表的开放模型(提供 1200 亿参数的长上下文推理能力);

●以 AI-Q 为代表的开放智能体(负责感知、规划与执行);

●以 cuOpt 为代表的开放技能工具(扩展智能体的专业能力);

●以及 OpenShell 这一开源运行底座,负责管控智能体的行为边界与安全权限。

除了深耕企业级市场,英伟达此次通过发布 NemoClaw 技术栈,正式将触角延伸至个人智能体领域。这套方案本质上是为全球增长最快的开源项目 OpenClaw 提供了全栈式的底层软件支撑。

黄仁勋在 GTC 现场直言,NemoClaw 的核心逻辑在于 " 极简部署 " 与 " 开箱即用 ",用户仅需单条指令,即可完成英伟达 Nemotron 模型与 OpenShell 运行时的安装。

黄仁勋甚至将其高度评价为 " 个人 AI 时代的操作系统 ",预示着软件领域 " 新文艺复兴 " 的开端。

安全性被定义为该方案的杀手锏。

其关键组件 OpenShell 构建了一个隔离沙箱,为智能体提供了受控的运行环境:智能体能访问何种数据、连接哪些网络,均受明确的安全护栏管控。

此外,该架构支持 " 本地 + 云端 " 的混合模式:敏感任务驻留本地处理,复杂任务则通过隐私路由器(Privacy Router)调用云端尖端模型,真正实现了隐私保护与计算能力的兼得。

黄仁勋在演讲里特别提到,NemoClaw 具备极强的硬件普适性。它可运行在从消费级 RTX PC、工作站到企业级 DGX Station、甚至最新的 DGX Spark 全系列硬件上,并支持 24 小时全时在线(Always-on)。这意味着无论是个人开发者还是大型企业,都能在私有环境下部署一套永不离线的 " 数字雇员 ",彻底摆脱对公有云服务的过度依赖。

07 NVIDIA Dynamo 1.0:AI 工厂的 " 操作系统 "

在生成式 AI 与 AI 智能体规模化落地的初期,行业普遍面临核心瓶颈:数据中心内的 GPU、内存与网络资源利用率碎片化,调度机制失焦导致推理延迟高、token 生成成本居高不下。企业空有算力集群,却因缺乏高效的协同框架,陷入 " 部署难、落地贵 " 的困境。

英伟达在 GTC 2026 上正式发布的 Dynamo 1.0 开源平台,正是为破解这一命题而生。

若将数据中心比作一座 AI 工厂,Dynamo 便是其 " 中央操作系统 "。它打破了硬件间的壁垒,统一编排大规模异构资源,使成千上万颗加速芯片实现深度协同。

在 Blackwell 架构下,Dynamo 可将推理性能最高提升 7 倍。

也就是说,基于这种负载优化,企业能够以更少的硬件冗余,支撑更复杂的智能体任务,精准切中当下 " 降本增效 " 的战略刚需。

目前,Dynamo 已构建起强大的生态护城河。AWS、Azure、谷歌云及 Oracle Cloud 四大云巨头已完成深度集成;同时,从 Cursor、Perplexity 等 AI 原生新锐到 PayPal 等全球化企业,均已在其推理基座中部署 Dynamo。

08 物理 AI 爆发:机器人任务成功率翻倍,比亚迪加入英伟达自动驾驶计划

这次 GTC 2026 释放了一个清晰信号:物理 AI 正在从模型演示转向真实世界的大规模落地。无论是机器人、自动驾驶还是 AI 工厂,英伟达都在用一套 " 算力 + 仿真 + 安全 " 的底层体系,重新组织现实产业。

黄仁勋表示,英伟达正把物理 AI 像洪水一样推向机器人产业。

目前,全球头部厂商几乎都在英伟达朋友圈里,从 ABB、FANUC、KUKA、安川电机这工业四大巨头,到自带流量的 Boston Dynamics 和 Figure,全都接入了英伟达生态。

通过与 Hugging Face 合作,英伟达将 Isaac 和 GR00T 模型集成到 LeRobot 开源框架中,打通了机器与 AI 开发者之间的壁垒,让上千万开发者能直接参与训练,加速机器人进化。

模型层面,新发布的 Cosmos 3" 世界基础模型 " 不仅能模拟画面,还能推理物理规则。

同时,人形机器人模型 Isaac GR00T N1.7 正式开放商业授权,其特点是让机器人通过看、听、动搞定复杂操作。黄仁勋还预告了年底将发布的 GR00T N2,据说它在陌生环境中处理新任务的成功率比现有模型高出一倍以上。

在自动驾驶领域,英伟达的 DRIVE Hyperion 平台已成为车企推进 L4 级自动驾驶的标配,比亚迪、吉利、日产等巨头均已明确加入。

此外,英伟达发布了 Vera Rubin DSX AI 工厂参考设计,以及配套的 Omniverse DSX 数字孪生蓝图(正式上线),核心目的是帮助企业在建造 AI 工厂前,用虚拟环境完整模拟电力、冷却、网络、计算的协同运行,最大化每瓦产出的 token 数量,缩短投产时间。

结语

从新一代算力芯片、高速网络、数据存储、处理器,到各类推理加速硬件,再到操作系统、开源 AI 大模型,以及机器人、自动驾驶、工业制造、太空计算、边缘 AI 等实际应用,英伟达正在搭建一套完整闭环的 AI 体系。

黄仁勋在演讲里反复传递一个核心信息:AI 智能体的时代已经来了。英伟达围绕这一方向,从底层硬件到上层生态进行了全面部署。

当然,这套体系的效能是否能够如老黄演讲所说,还需要客户在后续的 " 落地 " 过程中检验。

* 特约编译无忌对此文亦有贡献。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英伟达 芯片 黄仁勋 ai 龙虾
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论