IT之家 3 月 17 日消息,今天(3 月 17 日)在美国加州圣何塞举行的 2026 年 GTC 大会上,英伟达为推动智能体 AI(Agentic AI)发展,发布 Vera Rubin AI 平台。
英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin 是一次代际飞跃,标志着其史上最大规模基础设施建设的开端,全面覆盖从大规模预训练到实时智能体推理的 AI 全生命周期。
此举标志着英伟达正式跨入传统 CPU 直销赛道,不仅直接与英特尔、AMD 展开正面交锋,更向全球云计算巨头自研的 Arm 架构处理器发起挑战。

IT之家援引博文介绍,为大幅提升基础运算效率,Vera CPU 单颗芯片配备 88 个核心与 144 个线程。该芯片采用英伟达深度定制的 Arm v9.2-A Olympus 核心,其指令级并行度(IPC)实现了惊人的 1.5 倍代际飞跃。
同时,该架构首发引入了“空间多线程”黑科技,通过物理隔离流水线组件,让多个线程真正在单核上同时运行,彻底告别了传统多线程技术资源排队造成的算力损耗。
在核心算力层面,新一代 NVL72 机架实现了效率的突破性提升。该机架通过 NVLink 6 连接 72 块 Rubin GPU 与 36 块 Vera CPU。

与上一代 Blackwell 平台相比,该系统仅需四分之一的 GPU 即可完成混合专家大模型(MoE)训练,同时每瓦推理吞吐量提升高达 10 倍,单 Token 成本降至十分之一。
此外,专为验证 AI 模型结果设计的 Vera CPU 机架集成了 256 块液冷 CPU,其运行效率达到传统 CPU 的两倍,速度提升 50%。

为应对智能体系统低延迟和长上下文的需求,英伟达推出了 Groq 3 LPX 推理加速机架。该系统包含 256 个 LPU 处理器,与 Vera Rubin 结合后,每兆瓦推理吞吐量飙升至最高 35 倍。


在数据存储方面,全新 BlueField-4 STX 机架构建了 AI 原生存储基础架构。借助全新的 DOCA Memos 框架,该系统能够高效处理大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升最高 5 倍,从而实现更快速的 AI 多轮交互。
英伟达 GTC 2026 大会专题 <!-- 非定向300*250按钮 17/09 wenjing begin -->
<!-- 非定向300*250按钮 end -->
</div>