最近,新华三在NAVIGATE 2026领航者峰会上,发布高密全液冷整机S90000,整机最高可达576核心。新华三提出通过创新的高密供电与全液冷散热范式,可将数据中心PUE降至1.05以下。

无独有偶,2026年3月的GTC大会,英伟达也明确Vera Rubin NVL72为首个100%全液冷架构,GB300/Rubin、谷歌TPU v7、Meta Minerva等全球算力巨头已全面转向液冷方案。当单芯片功耗从H100的700W跃升至Rubin的2000W乃至Vermeer的5000W以上,传统风冷在物理层面已触及天花板。更关键的是,政策端已不给数据中心留下"不液冷"的退路。液冷不再是"节能可选项",而是算力部署与法规合规的双重"必选项"。

01

为什么必须要液冷?

液冷的全面普及,是技术、商业、政策等多重合力共同推动的必然结果。

芯片功耗的指数级飙升是液冷产业化的根本原因。英伟达单芯片TDP从H100的700W攀升至B200的1000W以上,再到Rubin的2000W及后续平台的5000W+;谷歌TPU v7达到980W,v8P突破1500W。当单机柜功率密度突破60kW甚至向130kW迈进时,风冷系统的散热极限与PUE劣化已不可逆转。液冷系统通过减少甚至取代高能耗的风扇群,并利用高温液体制冷实现自然冷却,可将数据中心PUE显著降低至1.05-1.1区间。

除了物理散热极限的硬约束,液冷更是保障AI训练任务连续性的生命线。大模型训练通常需要数千张GPU长时间(数周至数月)不间断运行。风冷存在局部热点风险,温度波动会导致训练任务中断、checkpoint回滚,网络同步延迟增加,整体集群效率下降等问题。液冷能提供更均匀、更稳定的温度环境,芯片可在更低结温下工作,故障率显著降低。对于万卡集群而言,任何非计划停机都意味着数百万美元的损失,稳定性是第一优先级。

在土地与电力资源日益稀缺的今天,液冷带来的空间密度优势同样至关重要。液冷允许在更小的物理空间内部署更多算力。同样1MW电力,风冷可能需要数百个机柜及大面积空调机房。液冷可将机柜数量压缩50%-70%,大幅提升单位面积算力产出(FLOPS/m²)。这在一线城市或枢纽节点(土地、电力指标稀缺)尤为关键。

如果说技术与商业需求是液冷发展的内在动力,那么日益严苛的政策法规则彻底关闭了风冷的退路。工业和信息化部于2021年7月印发《新型数据中心发展三年行动计划(2021-2023年)》,明确到2023年底,新建大型及以上数据中心PUE降低到1.3以下,东数西算枢纽节点及寒冷地区力争降低到1.25以下。发改委2021年11月印发《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》,进一步明确“到2025年,新建大型、超大型数据中心PUE降到1.3以下,国家枢纽节点降至1.25以下”。“东数西算”工程八大枢纽节点,要求东部地区PUE目标不超过1.25,西部地区不超过1.2,能效指标更加严格。今年,四部门联合印发《促进人工智能与能源双向赋能行动方案》,明确:新建大型AI数据中心100%采用液冷散热,2028年前存量风冷全部改造,液冷渗透率成算力基地审批硬指标。

目前,全国绝大部分省份已出台配套的PUE管控与奖惩措施。北京自2026年起对PUE超过1.35的数据中心征收差别电价,超限定值一倍以内加价0.2元/度,一倍以上加价0.5元/度;上海将新建数据中心PUE严控在1.25以内,智算中心以1.25为硬门槛;四川天府集群对PUE低于1.25的新建项目一次性奖补2000万元,低于1.15则奖补3000万元。天津要求大型新建数据中心PUE≤1.3,中小型≤1.5;纳入京津冀枢纽节点的项目需≤1.25,2026年底前,所有PUE>1.5的存量项目必须完成改造,目标降至1.4以下,否则限制扩容。

一言以蔽之,智算中心必须液冷,不是因为液冷"更好",而是因为风冷在物理层面已无法支撑当前及未来的AI算力密度。液冷同时解决了散热极限、能耗合规、空间效率、运行稳定等痛点,是智算中心从"能用"走向"好用且可持续"的唯一路径。

02

液冷的三条技术路线

当前液冷市场呈现冷板式、浸没式、喷淋式三条技术路线并行发展的格局。

冷板式液冷是指冷却液流经贴合芯片的冷板完成热捕获,对现有服务器架构改动最小,是目前成熟度最高、应用最广泛的方案,市场占比约为65%。2025年11月,新华三联合英特尔、英维克、忆联发布H3C UniServer R4900 G7全域冷板式液冷服务器,这是业界首款基于双路Intel Birch Stream AP架构实现全域冷板覆盖的服务器。

在冷板液冷系统中,液冷板成本占比32%居首,快接头以28%紧随其后,CDU成本占25%位列第三,三大核心部件合计占系统成本85%。随着微通道、泵驱两相冷板技术升级,其解热能力已突破2500W,PUE可降至1.10以下,是2026年产业化放量的绝对主力。

浸没式液冷将服务器完全浸没在冷却液中完成热捕获,散热效率更高,市场占比约34%,分为单相与两相两种路线。单相技术中,冷却液保持液态循环,通过显热(温度升高)带走热量;两相则是冷却液在芯片表面沸腾汽化,通过潜热(相变)带走热量,蒸汽上升后冷凝回流。单相路线因系统简单、成本可控,目前在大规模智算中心(如阿里云、字节跳动等)的部署占比更高。两相路线因散热极限更高,理论上更适合超高功率密度芯片(如未来单芯片 1000W+),但受限于冷却液成本和工程密封难度,商业化规模相对较小。

中国电信试点显示,浸没式可使核心温度较风冷降低35%,PUE最低可达1.1。曙光数创发布的兆瓦级相变浸没液冷整机柜C8000 V3.0,单机柜功率超900kW,散热能力达传统方案的3-5倍,散热能力超过200W/cm²。采用自研国产冷媒,可实现全年自然冷却。并首次规模化应用金刚石铜导热材料,导热率提升80%,助力芯片性能提升10%。

喷淋式液冷作为第三条路线,市场占比目前仅约1%,却展现出独特的精准散热价值。该技术通过冷却液定向喷洒服务器具体发热位置实现热捕获,工信部《国家工业和信息化领域节能降碳技术装备推荐目录(2025年版)》已将"芯片级精准喷淋液冷技术"列入数据中心节能降碳技术,可使PUE低至1.10。

中国长城推出了国内首台国产化喷淋式液冷服务器,填补技术空白;广东合一新材料研究院的芯片级喷淋技术,通过自主流道设计将PUE控制在1.1以下,特别适用于边缘计算等空间受限、热源分散的场景。

尽管短期内难以撼动冷板式的主流地位,但喷淋式在边缘AI、通信基站等碎片化场景中,正成为冷板式与浸没式之外的重要补充。

目前,液冷产业的美国市场由少数云巨头(微软、谷歌、Meta、亚马逊)主导,集中建设500MW-1GW级超级AI工厂,以英伟达整柜生态为核心,液冷方案高度统一,标准化推进迅速,供应链呈现"一级供应商直供"的集中化特征,为中国厂商打开了直接切入海外体系的窗口。

中国则在国家工程引导下构建全国智算中心网络,依托多家国产GPU与液冷厂商,呈现"多点布局、生态多元"的特征。

从内蒙古枢纽节点到四川天府集群,从新华三的全域液冷到浪潮信息的亚洲最大液冷研发基地,中国液冷产业在百花齐放中快速迭代。这种"多元网络"模式虽然面临标准统一与互操作性的挑战,但也赋予了产业链更强的韧性和迭代速度。

03

产业化深水区的四座"大山"

尽管2026年液冷产业化高歌猛进,但背后仍横亘着四座"大山"。

首先是标准缺失。液冷接口、冷却液配方、管路协议尚未完全统一,UQD/MQD快拆接头的生态兼容性直接影响部署效率。

其次是漏液风险与运维体系重建。液冷系统对数据中心运维提出全新要求,从"怕停电"到"怕漏水",保险、运维、监测体系需同步升级。

第三是存量改造成本。对于已运行的风冷数据中心,向液冷转型涉及机房承重、层高、防水等结构性改造,短期内"风冷+液冷"的混合架构将长期存在。

最后是产能与认证壁垒。从"示范供应商"到"量产供应商"需跨越产能准备、成本控制、产品一致性三重门槛,海外大客户的认证周期较长,国内厂商需在2026年这一窗口期内完成从"能造"到"敢用"的跨越。而四部门《节能装备高质量发展实施方案(2026—2028年)》已提出,到2028年信息通信领域新增服务器中达到能效2级及以上的设备占比需超过80%,这为液冷产业设定了更为长远的技术迭代坐标。

04

AI工厂时代的"水电煤"基础设施

2026年液冷产业化的本质,是散热技术从"配套部件"升级为"算力底座"。当英伟达、谷歌以"只做液冷"定义下一代AI芯片的部署标准,当多个省级行政区以PUE红线倒逼绿色转型,当新华三等国产厂商以"全域液冷"实现从部件到系统的跨越,液冷已不再是数据中心的"可选项",而是支撑AI工厂运转的"水电煤"基础设施。

未来智算中心的竞争,不仅是GPU性能的比拼,更是"每瓦token产出效率"的能效博弈。随着2026年液冷渗透率突破37%并向2027年50%的临界点迈进,液冷将像当年的光模块一样,从"小众配件"成长为千亿级核心赛道。在这场散热革命中,掌握冷板、快接头、CDU等核心部件工艺,并能提供整柜系统解决方案的国产厂商,将成为AI算力基建的最大受益者。2026年,液冷产业化的故事,才刚刚开始。