0871-28598494
13863548092
黄仁勋甚至大胆预言,英伟达未来很可能成为“世界上最大的存储公司之一”,其角色并非生产存储芯片,而是为存储伙伴提供一套重新发明的存储系统的标准。由此可见,

黄仁勋甚至大胆预言,英伟达未来很可能成为“世界上最大的存储公司之一”,其角色并非生产存储芯片,而是为存储伙伴提供一套重新发明的存储系统的标准。由此可见,那个看似不起眼的存储组件,其引发的涟漪正扩散至AI全产业链与商业模式的最深处。
一旦其基于BlueField等技术的存储平台成为AI数据中心的事实标准,英伟达将以“存储之王”的身份,实质上成为全球存储行业中最大的生态巨头。
2023年以来,AI竞赛的焦点始终是算力霸权,即GPU的FLOPS堆砌。然而,当模型参数突破万亿、上下文窗口迈向百万乃至千万tokens时,一个更根本的瓶颈浮出水面:“海马体”记忆容量与带宽的全新产业逻辑。
AI在处理长序列、复杂推理或多智能体协作之时,会产生海量的中间状态(尤其是键值缓存,KV Cache)。这批记忆体量若全部强塞进昂贵且容量有限的HBM中,从经济学上看是不可持续的。倘若被迫频繁往返于遥远的传统存储,延迟又无法忍受——整个系统的效率会被直接拖垮。
正是在这个节点上,英伟达在其下一代Rubin架构平台上,推出了一套全新的解决方案。其核心变革,是一个基于BlueField-4 DPU所构建的“推理上下文内存存储平台”。这不仅仅是给机柜加了几个硬盘,而是一个新存储层级的诞生,并计划永久改变存储的产业价值逻辑。
此次,Vera Rubin NVL72机架,与以往最大的不同在于,每个机架配备了4颗数据处理器BlueField-4 DPU。它们共同管理着一个高达150TB的专用“上下文内存池”。
从产业视角看,这是一个精确定义的“温数据”层,介于GPU的HBM(热数据)和机架外的传统存储(冷数据)之间。它的使命清晰而明确:专门存放AI推理中那些既至关重要、又不必时刻霸占最昂贵HBM的海量KV Cache——HBM处理热数据,DDR处理温热数据,BF-4处理NAND温冷数据,传统存储NAND处理冷数据。同时BF-4 DPU也扮演了这个内存池的管家,负责数据的实时调度、迁移以及在机架内多个GPU之间的高效共享。
自此,市场接下来不会只是单纯的算力堆砌,而是有针对性地对AI记忆体系进行架构革命。这也正是此次Vera Rubin平台诞生的核心意义:它不只是英伟达的一年一迭代,更是应对2026年起AI推理时代的系统性瓶颈的一次架构级重构,也将是存储行业的全新产业估值逻辑。
BlueField-4并非简单的网卡或存储控制器。它集成了Arm CPU核心、高速网络接口(如CX-9)和强大的数据处理卸载能力。它的角色是将存储管理、网络协议、数据安全等负载从GPU上彻底剥离,让GPU专心于计算。
简而言之,BlueField-4将网络、存储和安全处理任务卸载到其自身的Grace CPU,进而使Rubin GPU和Vera CPU能够专注于模型的执行。也就是说,它根本就不是一张网卡,传统的网卡或存储控制器概念在此已完全过时。
在这一新Rubin架构之中,BF-4扮演着全局存储大脑的角色。它管理着一个由高速“上下文内存网络”互联的、池化NAND存储系统,确保数据能在整个机架内以接近HBM的延迟流动。通过这个集中管理的、高达150TB的池化资源,平台能为NVL72机架内的每一颗Rubin GPU动态分配额外的16TB专用NAND上下文空间。
这也就意味着存储层发生了质变:NAND Flash从传统存储设备,被提升为GPU的大容量内存扩展层。单颗GPU可用的有效记忆体因此实现跨越式增长,达到20TB。这直接击穿了长上下文处理的硬件天花板——相比前代Blackwell架构单卡8TB的容量,实现了接近200%的暴涨。
英伟达AI基础设施资深总监Dion Harris也曾指出了关键所在:在智能体AI时代,投资一个靠近计算单元的专用上下文存储层,已变得和投资计算单元本身同等重要。无论是能通读整本书的助手,还是能进行数小时复杂规划的项目管理Agent,都需要在单次会话中维持巨量历史信息。而关键的KV Cache大小与序列长度成正比,其增长是指数级的,原有的HBM+DRAM两级架构早已不堪重负。
也基于此,这一变革绝非英伟达的心血来潮,而是被未来的产业需求所推动。存储,正前所未有地从周期性商品,转变为AI的伴生品。一系列关于价值分配的新商业模式与产业逻辑,将围绕这个新的核心战场就此展开。
传统意义上,NAND闪存在数据中心里被视为冷藏库,只存放最终结果,进而价值量相对较低。而英伟达的新架构,将NAND直接拉入了实时的推理计算流水线,使其成为参与核心计算过程的“温内存”。与此同时,这也意味着,用于AI服务器的NAND,需要更高的性能(如低延迟、高耐用性)、更紧密的集成度,接下来其技术门槛和附加值将随之大幅提升。
此次,英伟达的存储子系统重构,是Vera Rubin最引人注目的创新,其平台采用了三级存储层次来解决不同类型数据的访存瓶颈:
1)HBM4显存:作为计算核心的直接工作区,带宽飙升至22TB/s,达到前代Blackwell方案的2.8倍。这种带宽容量使得大规模参数加载与激活值传递得以高效完成。
2)DRAM主存:容量扩大至1.5TB/CPU,专门用于中等温热数据的高效存取。在多轮对话和复杂推理流程中,这部分内存承担着频繁交互数据的缓冲作用。
3)推理上下文存储平台(ICMS):这是本次发布中变化最大的存储组件。基于NAND闪存技术构建,通过机架内网络与所有GPU直连。这一设计直指当前大语言模型推理的核心瓶颈:在处理超长对话或复杂思维链时,庞大的KV Cache不再需要挤占昂贵的GPU显存,而是可以经济高效地存储在ICMS中。
目前,这套三级存储的效果立竿见影:Vera Rubin平台可将MoE混合专家模型的Token生成成本,降至原来的十分之一,同时NVFP4精度下的推理性能,实现五倍提升。对于需要处理百万级Token上下文的未来智能体应用而言,ICMS的存在可能决定了商业可行性的边界。
正如黄仁勋所强调的,AI计算量正以每年10倍的速度膨胀。若算力成本不能同步下降,这种增长将不可持续。而英伟达在过去三年成功维持了一条“性能提升五倍,成本下降十倍”的发展曲线。
也基于此,英伟达的ICMS平台部署,必然会带动整个存储硬件和软件生态的革新。各大存储厂商(如三星、美光、SK海力士)及其产业链上下游,势必将会基于BlueField-4 DPU开发下一代专为AI优化的存储设备和解决方案——这将开辟一个全新的高端细分市场,预计其定价和利润率将远高于传统企业级SSD。
从产业影响看,最直接的受益者还是高端NAND及主控芯片厂商。毕竟,每个NVL72机柜因此新增的NAND需求高达约1.152PB(72 GPU * 16TB)。倘若英伟达先出货10万个此类机柜,将新增超过115EB的NAND需求,这也相当于2025年全球NAND总供给量13%。很显然,这无疑为正处于复苏周期的存储市场开足马力,并同时将引发市场对高端NAND晶圆及先进主控的新一轮争夺战。
无论如何,趋势已经非常清晰。英伟达通过将BlueField-4 DPU与大规模NAND闪存池深度融合,正在主动定义AI计算的下一代存储。英伟达早已不再满足于只提供最快的大脑GPU,而是还要打造一个与之匹配的、容量惊人的海马体,确保了AI推理服务的边际成本能够随着技术进步持续下探。
对于英伟达而言,在这个新阶段,竞争维度不再是简单的浮点运算次数堆砌,而是计算、存储、网络三个子系统的协同发力程度;决胜的关键也不在于单点性能峰值,而在于全栈系统在真实负载下的总体拥有成本TCO——或许很快,基于万亿参数模型的AI服务,将会以接近搜索引擎的使用成本广泛提供。毕竟,归根到底,技术指标的进步终须由应用场景验证价值。
Vera Rubin对存储性能的苛刻需求,正在将整个存储产业链拖入一场结构性升级。ICMS平台的登场,直接让企业级固态硬盘eSSD在AI数据中心里发生了质变——从存放数据的仓库,变成了参与计算的关键部件。
这一场变革,正把NAND存储行业从数据中心的幕后推向前台,使其成为AI推理不可或缺的核心硬件。它不仅再次如愿了英伟达此次自身的产品迭代,更在重塑全球存储芯片市场的供需格局,为下一轮AI增长划定了新的战场。或许很快,当AI真正拥有海量、高速的“海马体”,其进化速度将远超今天的想象。而这一切的起点,正是机柜里那4颗DPU所驱动的,高达150TB的海马体。
目前,存储巨头已全力冲刺。三星、SK海力士正加速推进第六代HBM研发,并布局名为HBF(高带宽闪存Flash)的新型技术。HBF试图融合3D NAND的大容量和HBM的高带宽,目标是成为HBM的“辅助内存”。SK海力士与闪迪已合作制定规范,计划在2026年下半年推出首批样品,矛头直指即将爆发的AI推理市场。毕竟,从2026年起,AI推理产生的Token数量预计将以每年5倍以上的速度激增,届时推理将吃掉整个AI计算市场至少三分之二的份额。
对于英伟达而言,其数据中心业务追求的性能闭环,长期以来就差存储NAND这最后一环。Rubin的加入补上了这块短板,而且它存储的不是冷数据,而是模型运行所依赖的关键值Key Value。这也自此标志着英伟达核心业务在某种意义上实现了闭环。
此次的战略转向,与CEO黄仁勋近期的演讲基调完全吻合。他的论述呈现出强烈的推理导向,明确指出AI发展已进入“物理AI”新阶段,并预言其“ChatGPT时刻”即将到来。所谓物理AI,是能理解并模拟重力、惯性、摩擦力及因果关系的人工智能,它意味着AI将从数字世界迈向物理世界。
实现物理AI,核心还是在于推理。与训练阶段的一次性大规模计算不同,推理是持续、动态的思考过程。此次英伟达结合Rubin,首次将思维链能力引入车辆决策系统,让自动驾驶车辆能在复杂环境中进行情景理解和风险权衡。这一切都需要模型进行毫秒级的物理模拟和因果推断。因此,推理的性能、能效和成本,将成为物理AI能否规模商用的绝对关键所在。而上述的这一切,是存储行业估值逻辑的全新开始。
如何让农村老人更有安全感?全国人大代表建议70岁以上农村老人免缴医保|两会开放麦
截至2024年末,我国60岁以上老人达3.1亿人,占总人口的22%。第七次全国人口普查数据显示,我国农村60岁及以上老年人口达1.2亿人,占农村总人口的23.81%,老龄化浪潮日益加深。
代表委员工作站⑥丨“春秋假”写入政府工作报告,如何“假”尽其用,增强消费“马力”?代表委员来支招
川观新闻记者 刘珩今年政府工作报告中提到“深入实施提振消费专项行动”,支持有条件的地方推广中小学春秋假,落实职工带薪错峰休假制度。这一内容引起了不少网友的关注。四川多地已经推行了中小学生“春秋假”,今年清明节前后,成都等地的孩子将迎来6天的假日。
特朗普:若伊朗阻断霍尔木兹海峡,美国将对其施以“比以往猛烈20倍的打击”,“让伊朗作为一个国家几乎永无重建可能”
新华社华盛顿3月9日电 美国总统特朗普9日威胁说,如果伊朗采取任何阻断霍尔木兹海峡石油运输的行动,美国将对其施以“比以往猛烈20倍的打击”。
成都双流机场发生火情致航班延误?驾考科目二从5月起要增加考试项目?绵阳多部门招聘工作人员?e起消“谣”!2月熊猫捉谣月榜来了,一图带你速览本月热传谣言。
48岁女子为考驾照,从零开始认字!5次考科目一终通关!本人回应:是女儿让我有这么大改变,拿到证后要出去看看
近日,江苏苏州一48岁女子,为了考出驾照,从零开始认字!朱女士用行动证明:学习永远不晚!为了考驾照,她在00后女儿陪伴下从拼音学起,第5次科目一考试终以93分通过!“是女儿让我有这么大的改变。”如今母女俩一起卖包子创业,朱女士说:“靠自己能力赚到钱,感觉确实不一样。
四川一男子养豪猪拔刺,每斤能卖400元:豪猪刺药用价值非常高,也可以做工艺品,比如鱼漂、发簪、牙签等
近日,四川内江。余先生已经养了17年豪猪,高峰期达7000多只,每只豪猪每半年可以拔一次刺,每只豪猪每年可产三四两刺,每斤刺能卖400元左右,豪猪肉也可以吃,大概100多元一斤。余先生表示:豪猪刺药用价值非常高,也可以做工艺品,比如鱼漂、发簪、牙签、耳环、项链等。
2026年3月8日CBA公布了最新的动态,篮协已经拿出了CBA升降级的具体方案,也就是说距离升降级已经越来越近了。目前会分成三个阶段,第一个阶段是2025-27年是过渡准备期,也就说本赛季和下赛季是通知大家做好准备。
PRECAUTIONS3月7日,位于章丘区大学路的空天信息大学建设工程项目体育馆建设现场,工人们有的正在焊接幕墙龙骨,有的正在进行设备安装作业,工地一派繁忙的抢工景象,为春节后复工吹响了冲锋号。
谁在城市公园的枯树林间,藏了两棵会移动的墨玉白瓷?2月28日,我撞见了这场自然小剧场:三只喜鹊,黑羽泛着幽蓝光泽,白腹如落雪,在疏林枯草间踱步、啄觅。残枝作幕,干草为台,它们或驻足张望,或低首私语,把城市边缘的荒芜,变成了灵动的生命诗行——原来,喧嚣之外,还有这般野趣在悄悄生长。
上一篇:2026年网站建设公司领跑者:国内十大综合实力强网站设计公司
下一篇:2026年网站建设公司标杆推荐:核心服务商技术实力与落地效能
Copyright © 2026 PA视讯集团科技有限公司 (PA Vision Group) 版权所有 PA视讯官网提供技术支持 备案号:鲁ICP备2022034756号-1