前言

在 2026 年 GTC 大会上,NVIDIA 创始人兼 CEO 黄仁勋提到,数据中心(Data Center)的定义正加速向“AI 工厂”转型,电力基础设施被提升到了前所未有的战略高度。

从芯片能效、平台架构到电网联动及 45℃ 温水入口液冷技术,电力供应与散热效率已不再是服务器的附属配套,而是直接决定 AI 基础设施投资回报率(ROI)的核心变量。

1 吉瓦供电红线:从算力密度转向“每瓦 Token”产出率

黄仁勋在演讲中明确指出,未来的 AI 工厂本质上是生产 Token 的工业场所。在土地与电力资源受限的物理条件下,1 吉瓦(GW)的供电容量将直接影响工厂的产出上限。

因此,评价基础设施优劣的指标正从单纯的算力峰值,转向单位电力消耗下的数据吞吐量,即“每瓦特产生的 Token 数”。

对于电源行业而言,这意味着数据中心供电架构的竞争已进入存量效率时代。在 1 吉瓦的电力预算内,每一瓦未能转化为算力的损耗都等同于收入损失。黄仁勋以 15 年摊销期、约 400 亿美元成本的吉瓦级工厂为例,强调了供电约束对模型服务成本及定价权的深远影响。

DSX 平台发布:实现电网、电源与算力的深度数字孪生

针对超大规模 AI 工厂的运营痛点,NVIDIA 发布了 Vera Rubin DSX AI Factory reference design,并让 Omniverse DSX Blueprint 进入正式可用阶段。该体系包含 DSX Sim、DSX Exchange、DSX Flex 及 DSX Max-Q 四大核心模块,覆盖物理、电气、热力与网络仿真、AI 工厂运营数据交换、跨电网动态电源管理以及能效优化等能力。

这一体系的出现,标志着数据中心电源系统正从硬件交付转向“软硬一体”的功率编排。

该系统的关键在于将计算、网络、能源、电源与冷却信号打通,并根据电网负载及现场能源条件动态调整 AI 工厂的电力分配。

对于高性能电源厂商而言,未来的产品价值将不仅体现在高效率 AC/DC 或 HVDC 转换模块上,更在于能否无缝接入此类数字孪生系统,实现园区级微电网与算力调度的实时协同。

Vera Rubin 平台标配全液冷:45℃ 热水冷却重构机房能效

硬件层面,新一代 Vera Rubin 机架系统围绕 45℃ 温水入口液冷方案展开,并采用全液冷设计。这种设计旨在大幅降低数据中心侧的二次冷却成本,将节省下来的电力资源重新分配给计算节点,从而提升整机柜的功率密度。

随着 Vera Rubin 系统的部署,Vera Rubin NVL72 计算托盘的装配时间已由接近两小时缩短至约五分钟,极大地提升了交付与维护效率。这一趋势预示着液冷连接器、高功率密度机柜配电单元(PDU)、CDU(冷量分配单元)以及液冷冷板等产业链环节,将迎来从高端定制向标准化基础设施转变的市场拐点。

每兆瓦吞吐量提升 35 倍:能效叙事替代单纯峰值性能

在性能对比中,黄仁勋展示了 Vera Rubin NVL72 与 Groq 3 LPX 组合后的数据:在每用户 400 TPS 条件下,其每兆瓦吞吐量较 NVIDIA GB200 NVL72 最高提升 35 倍。这种“单位功耗实际产出”的叙事方式,正成为衡量 AI 基础设施竞争力的主流标准。

这为电源与储能行业带来了直接启发。未来的服务器电源、母线架构及储能调峰系统,其研发重心将聚焦于如何在兆瓦级的总预算内,更稳定、高效地将电能输送至核心计算单元。高功率、高可靠性与智能动态响应,将成为电源系统在 AI 时代的核心竞争力。

编辑部总结

从 Vera Rubin 全面拥抱 45℃ 温水入口液冷,到引入数字孪生系统进行动态电网调度,NVIDIA 在 GTC 2026 上展示了新一代算力基建的明确方向。算力的竞争早已不再是纯粹的性能堆叠,而是关于能源利用率、液冷架构演进以及全链路供电管理的综合博弈。

随着千亿级大模型对规模化算力与能源的持续渴求,围绕 AI 工厂高效供电、温水液冷设备与数字孪生电源管理的技术迭代,必将成为决定未来万亿美元级 AI 计算产业产出的最底层支撑。

大会预告

聚焦全球 AI 服务器电源领域标杆盛会 ——2026 世界 AI 服务器电源大会(PSU 2026),将于 5 月 22 日(周五)在深圳隆重举办。

相关阅读:PSU2026丨18家AI电源标杆企业已就位!

本次大会将汇聚全球头部电源厂商、算力企业与技术专家,围绕800VDC高压直流架构、AI算力电源能效优化等核心议题展开深度探讨,共话下一代数据中心电源技术趋势。诚邀行业同仁莅临参会,共探产业新机遇。

联系我们