史上最强 AI 基建方案:英伟达发布 Vera Rubin 平台,单 Token 成本降至 1/10


IT之家 3 月 17 日消息,今天(3 月 17 日)在美国加州圣何塞举行的 2026 年 GTC 大会上,英伟达为推动智能体 AI(Agentic AI)发展,发布 Vera Rubin AI 平台。

英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin 是一次代际飞跃,标志着其史上最大规模基础设施建设的开端,全面覆盖从大规模预训练到实时智能体推理的 AI 全生命周期。

此举标志着英伟达正式跨入传统 CPU 直销赛道,不仅直接与英特尔、AMD 展开正面交锋,更向全球云计算巨头自研的 Arm 架构处理器发起挑战。

IT之家援引博文介绍,为大幅提升基础运算效率,Vera CPU 单颗芯片配备 88 个核心与 144 个线程。该芯片采用英伟达深度定制的 Arm v9.2-A Olympus 核心,其指令级并行度(IPC)实现了惊人的 1.5 倍代际飞跃。

同时,该架构首发引入了“空间多线程”黑科技,通过物理隔离流水线组件,让多个线程真正在单核上同时运行,彻底告别了传统多线程技术资源排队造成的算力损耗。

在核心算力层面,新一代 NVL72 机架实现了效率的突破性提升。该机架通过 NVLink 6 连接 72 块 Rubin GPU 与 36 块 Vera CPU。

与上一代 Blackwell 平台相比,该系统仅需四分之一的 GPU 即可完成混合专家大模型(MoE)训练,同时每瓦推理吞吐量提升高达 10 倍,单 Token 成本降至十分之一。

此外,专为验证 AI 模型结果设计的 Vera CPU 机架集成了 256 块液冷 CPU,其运行效率达到传统 CPU 的两倍,速度提升 50%。

为应对智能体系统低延迟和长上下文的需求,英伟达推出了 Groq 3 LPX 推理加速机架。该系统包含 256 个 LPU 处理器,与 Vera Rubin 结合后,每兆瓦推理吞吐量飙升至最高 35 倍。

在数据存储方面,全新 BlueField-4 STX 机架构建了 AI 原生存储基础架构。借助全新的 DOCA Memos 框架,该系统能够高效处理大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升最高 5 倍,从而实现更快速的 AI 多轮交互。

英伟达 GTC 2026 大会专题英伟达 GTC 2026 大会专题
            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » 史上最强 AI 基建方案:英伟达发布 Vera Rubin 平台,单 Token 成本降至 1/10
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的