英伟达Rubin CPX:AI算力新纪元,2026颠覆登场!
2025年9月12日
大小:6.91MB00:00:00/ 00:00:00

2025年9月10日,全球AI算力霸主英伟达(NVIDIA)震撼发布新一代专用GPU——Rubin CPX,这款专为大规模上下文AI推理设计的芯片,将于2026年底正式上市,标志着AI计算从“训练”走向“推理”的又一次革命性跃迁。


Rubin CPX:为“长上下文”而生的AI芯片


与传统GPU不同,Rubin CPX并非“全能型”选手,而是专为处理超长上下文窗口的AI任务而生。它聚焦于AI推理过程中的上下文理解阶段,与负责“生成响应”的Rubin GPU形成“分工协作”,实现效率最大化。


据英伟达官方介绍,Rubin CPX具备以下核心优势:


- 128GB GDDR7显存,支持百万级tokens上下文处理;


- 30 petaflops算力,基于NVFP4精度,专为高吞吐量设计;


- 3倍注意力机制加速,相比GB300 NVL72系统,效率提升高达6.5倍;


- 分离式推理架构,将“理解”与“生成”任务拆分,显著降低延迟,提升系统整体吞吐量。


这一设计特别适用于视频生成、大规模代码编写、多轮对话、长文档分析等复杂AI任务,解决了当前AI模型在处理长输入时的“卡顿”与“遗忘”问题。


Vera Rubin平台:AI超算的“超级战舰”


Rubin CPX并非单独作战,它是英伟达下一代AI平台Vera Rubin的核心组件之一。完整的Vera Rubin NVL144 CPX系统将集成:


- 36个Vera CPU


- 144个Rubin GPU


- 144个Rubin CPX GPU


整机提供 8 exaflops AI算力,配备100TB高速内存与1.7PB/s内存带宽,性能比当前旗舰GB300 NVL72系统提升7.5倍。


如此强大的系统,专为企业级AI代理、生成式视频模型、超大规模代码生成等场景打造,目标是在2026年后成为AI数据中心的“新标配”。


AI投资回报率惊人:1亿美元投入,50亿美元产出


英伟达CEO黄仁勋在发布会上强调,Rubin CPX不仅是技术突破,更是商业效率的飞跃。他举例称:


> “部署1亿美元的Rubin CPX硬件,预计可为客户带来高达50亿美元的收入回报。”


这一惊人ROI的背后,是AI推理效率的质变。当前,约20%的AI应用因“等待首个token”而浪费大量算力,尤其在长视频生成、万行代码解析等任务中尤为明显。Rubin CPX通过优化上下文处理,显著缩短响应时间,提升单位算力的产出效率。


软件生态加持:Nemotron模型全家桶上线


硬件之外,英伟达同步推出Nemotron系列多模态AI模型,专为Rubin CPX优化,覆盖从边缘到数据中心的多种部署需求:


- Nano:适用于边缘设备;


- Super:单GPU部署;


- Ultra:大型数据中心级模型。


配合NVIDIA AI Enterprise软件平台,企业可快速构建AI代理系统,实现自动化编程、内容生成、智能客服等复杂任务。


结语:AI进入“长上下文”时代,Rubin CPX定义未来


从ChatGPT到Sora,AI模型正变得越来越“长记忆”“多模态”“高交互”。而Rubin CPX的推出,正是对这一趋势的硬核回应。它不仅是一次硬件升级,更是AI基础设施从“训练优先”走向“推理优先”的关键转折点。


2026年底,当Rubin CPX正式商用,AI视频生成将不再局限于几秒短片,代码助手将真正理解整个项目结构,AI代理将能处理跨越多天的复杂任务。英伟达,再次用 silicon 定义了智能的边界。












【新闻来源】深度解码者 https://www.toutiao.com/article/7548223567381463615/?upstream_biz=doubao&source=m_redirect

(本网转发此文章,旨在为读者提供更多的信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。)