
在今日的消费电子展上,英伟达首席执行官黄仁勋正式推出了公司全新的Rubin计算架构,他称该架构是AI硬件领域的前沿技术成果。目前这一架构已进入生产阶段,按照计划,今年下半年其发展速度有望得到进一步提升。
“Vera Rubin的目标是应对我们面临的一项核心挑战:AI所需的计算量正以惊人速度增长。”黄仁勋向观众表示,“现在我可以宣布,Vera Rubin已正式全面投入运营。”
Rubin架构于2024年首次对外公布,它是英伟达持续推进硬件开发周期所取得的最新成果,正是这一不断迭代的开发周期,推动英伟达成长为全球市值最高的公司。该架构将接替Blackwell架构,而Blackwell架构此前则是取代了Hopper与Lovelace架构。
Rubin芯片已规划应用于几乎所有主要云服务提供商,其中包括与Anthropic、OpenAI以及亚马逊网络服务的重点合作项目。此外,Rubin系统还将被用于HPE的Blue Lion超级计算机,以及劳伦斯伯克利国家实验室即将推出的Doudna超级计算机。
以天文学家Vera Florence Cooper Rubin的名字命名,Rubin架构由六块独立芯片构成,核心设计理念是让它们协同运作。处于架构中心位置的是Rubin GPU,同时,该架构通过在Bluefield和NVLink系统上的全新优化,有效应对了存储与互连领域不断加剧的瓶颈问题。此外,架构中还包含一款全新的Vera CPU,其研发初衷就是为代理推理提供专属支持。
英伟达AI基础设施解决方案高级总监Dion Harris阐述了新存储的优势,并提到现代AI系统在缓存相关内存方面的需求正不断增加。
当你开始采用代理AI或长期任务这类新型工作流程时,会对KV缓存——也就是AI模型用于压缩输入的内存系统——产生较大的压力和更高的要求,Harris在电话采访中向记者解释道。“所以我们新增了一个可外接于计算设备的存储层,这样就能更高效地扩展存储池了。”
正如预期,新架构在速度与能效上均有显著提升。据英伟达测试数据显示,Rubin架构在模型训练任务中的速度较此前的Blackwell架构快了三倍半,推理任务速度则快五倍,峰值性能可达50 petaflops;同时,新平台每瓦特可支持的推理计算量提升至原来的八倍。
Rubin的新功能诞生于激烈的AI基础设施建设竞争背景下,AI实验室与云服务提供商正竞相争夺英伟达芯片及配套的供电设施。在2025年10月的财报电话会议中,黄仁勋预计未来五年全球在AI基础设施领域的投入将达到3万亿至4万亿美元。