2025年,人工智能产业仍在高速奔涌。大模型训练参数量破万亿,单节点功耗持续攀升,AI集群的算力密度正以前所未有的速度逼近极限。与此同时,支撑这一切的物理基础——数据中心,正深陷“热困境”之中。
传统风冷系统面临三重挑战:能耗高、散热瓶颈明显、噪音与空间效率持续恶化。且随着功率密度的增加,以及AI智算中心动辄上万卡集群的今天,这一挑战还会进一步上升。过高的能耗不仅增加了数据中心的运营成本,也与当前节能减排的政策导向相悖。“液冷”的诞生就是这个AI时代系统级能效优化的产业链协同创新成果。
看似边缘的“液冷”技术,正在被重新置于聚光灯下。它不是简单替代风冷的“新散热方式”,而是一种从服务器结构、运维模式、热管理逻辑到产业生态协同的系统性重构。
但这条路并不容易。液冷系统因其部署复杂、前期投资大、标准不一,一度被视作“巨头游戏”,离大规模商用尚有距离。然而在2025年5月,一场由淼算科技、亨通与多方产业合作伙伴共同举办的液冷技术发布会,却带来另一种可能。
从左至右依次为:壳牌中国润滑油技术总经理崔大龙、睿启服务器销售副总经理龙总、淼算科技创始人CEO徐彦斌、亨通集团副总裁陆春良
本次大会所呈现的,不仅是一种硬件形态的更新,更是一种关于下一代算力基础设施的产业共识与工程路径探索。
液冷技术,是否正在进入从“能不能做”到“怎么推广”的关键拐点?这不仅是技术问题,更是一个关于未来算力架构、能源效率和产业组织方式的全新命题。
“液冷”这两个字,在产业界常常被简化为“换个方式给服务器降温”。但真正深入技术底层,会发现它远不止如此。液冷并不是风冷的线性升级,而是对整个算力系统进行结构性重构的一种解决思路。其核心逻辑,是在热密度快速飙升的背景下,用更高维度的热传导方式与系统组织方式,应对传统风冷架构已无法承载的能耗与空间挑战。
研究液冷技术谱系,会发现目前主流液冷方案主要分为两大类:
冷板液冷(Direct-to-Chip Liquid Cooling):通过将液冷冷板直接贴合于CPU、GPU等高发热部件表面,依靠冷却液循环带走热量。这种方式在兼容性与局部散热效率之间取得平衡,适用于已有机架服务器的改装或混合部署。
浸没式液冷(Immersion Cooling):则是将整机或整排服务器直接浸入非导电液体中,通过液体的自然对流或强制循环完成热交换。这种方案对服务器设计提出更高要求,但理论上在散热效率、能效比、运行稳定性等方面具备更大潜力,尤其适用于高密集、极限功耗的AI训练场景。
在本次发布会中,淼算科技所展示的就是后者——浸没式液冷架构,并在工程实现上解决了多个长期制约行业落地的技术难点。
那么,淼算科技是怎么做的呢?
1. 结构:可堆叠多层TANK+模块化服务器设计
传统浸没式液冷往往面临设备堆叠难、维护困难等现实问题。淼算此次发布的新一代架构采用多层TANK结构,并按上中下三段区块堆叠布置——存储区、计算区、主控IO及电源区通过模块化设计,按需布置。
这一“结构解耦”设计的优势在于:
易维护性大幅提升:所有关键部件都面朝正面,支持单组件热拔插;
模块复用性高:部件可自由组合、分批替换;
更适合浸泡式部署:物理形态即为“适液而生”。
2. 热管理系统:±1°C动态控温,PUE低至1.09
高效的热管理系统是液冷能否工业落地的核心瓶颈。淼算的解决方案采用内外双循环冷却结构 + 智能温控算法,在TANK内部实现了精准的冷热液体流畅调节,确保核心元器件温差保持在±1°C以内。
据官方测试结果显示,该系统能将PUE(电源使用效率)稳定控制在1.15以下,在特定区域甚至可达1.09。相比传统风冷数据中心1.4~2.0的PUE,节能幅度极为显著。
3. 模块化解耦服务器:从黑盒到“拼装式”算力单元
液冷并不只是散热方式改变,更要求服务器形态与之协同演进。睿启服务器在此次发布会中展示的模块化服务器,是液冷化的重要支撑:
每台服务器被解耦为CPU、GPU、存储、供电等独立模块;
各模块通过标准化接口互联,类似“拼装积木”;
实现快速组装、热拔插、更小粒度的部署与运维策略。
这种结构不仅降低了定制成本,还大幅提升了设备与液冷系统的适配性,具备工程标准化与批量制造的潜力。
可以看到,液冷并不是单点技术突破,而是围绕“高密度计算+高热负载”这一核心问题,在多个技术层面进行协同优化的产物。它重塑的不只是散热路径,而是硬件结构、部署方式、运维体系甚至数据中心建筑逻辑。
液冷之所以再次被推到台前,是因为它提供的已不是“更强散热”,而是一种支撑下一代AI算力架构的基础工程解法。
液冷之所以长期未能大规模普及,除了服务器结构适配的复杂度之外,更核心的问题在于经济模型:与风冷系统相比,液冷是否真正具备可负担、可复制、可扩展的成本结构?一句话,能否“风液同价”,决定了液冷能否跳出技术试验田,走向大规模商用。
在传统认知中,液冷“贵”的核心在冷却液本身。但从实际工程角度来看,液冷初期投入包括五大核心项:
1. 专用服务器:需进行浸没式改造,往往需重构机身结构与散热部件;
2. 冷却液与TANK系统:液体需要高绝缘性、低粘度、热稳定性强,TANK需具备一定密封性、循环通道与结构支持;
3. 泵组与液体分发系统:液流速度、压力调控、回路设计对稳定性与效率影响极大;
4. 环境控制:如液位检测、温度监控、流量控制,确保运行安全性;
5. 运维与清洗工具:液冷系统必须支持全生命周期维护,包括清洗剂、更换工具、检修SOP等。
这些环节无一不是跨设备、材料、算法与运维的协同结果。因此,液冷的成本并非集中在某一处,而是系统集成复杂性本身。
为了突破这个成本瓶颈,淼算科技、亨通与壳牌等合作方联合提出了一套旨在降低液冷部署门槛的策略,其核心在于三个关键词:
☆标准化设计:减少定制开发
通过将液冷服务器模块化、接口统一化,使得液冷系统可像风冷一样“即插即用”,大幅减少个性化改装的人力物力投入,提升交付效率。
☆模块化交付:压缩部署周期
以此次展出的其中一台32U架构边缘液冷TANK为例,整机集成化后可在4小时内部署完毕。与传统液冷项目动辄数天到数周的部署周期相比,大幅降低了部署成本与时间窗口成本。
☆运维产品化:构建完整生命周期管理工具链
清洗剂、清洗车、运维车等配套工具不仅降低了技术人员门槛,更关键的是减少了液冷系统长期运维的不可预见成本。
通过这些手段,淼算提出“风液同价”目标:即在初期投资控制住的前提下,通过运行期PUE下降带来的能效收益,达到与风冷系统总体拥有成本(TCO)持平。
值得注意的是,发布会上公布的图精科技“延庆项目”,作为首个实打实的落地案例,提供了现实中的样板验证场景:
这标志着液冷正在突破“小规模验证”阶段,开始具备实际规模化部署与城市级应用的条件。下一阶段,重点将不再是“能否部署”,而是“能否以复制性实现产业化扩张”。
尽管液冷技术本身已历经多年演进,但真正让它止步不前的,从来不是“是否有效”,而是“是否可用”——可部署、可维护、可复制。背后的难点,不仅仅是技术成熟度,更是液冷所代表的基础设施组织方式,与过去的数据中心范式存在根本性差异。
液冷会带来哪些显著变化呢?我们觉得下面几个方面值得关注:
☆从“黑盒IT”到“结构解耦”:数据中心形态重构
传统IT硬件系统(特别是服务器)被设计成封闭式的黑盒结构,以便于批量部署和运维。这种思路适用于风冷环境,但在液冷条件下,反而成了障碍。
本次发布会上,睿启展示的模块化服务器形态,是对这一结构思维的直接挑战:
服务器被拆分为 CPU、GPU、存储、供电、IO 等多个子系统;
各模块通过标准化接口组合,允许“积木式”快速重构;
运维从“整体更换”转向“局部调优”,可极大降低维修复杂度与系统停机成本。
这种设计背后隐含的是算力作为基础设施的“工程化逻辑”转向:从产品导向(部署即结束)向平台导向(运维即增值)变化。这要求原本以分工明确、各自为战的硬件厂商,开始接受协同优化、模块互通的产业逻辑。
☆液冷系统是一场“跨界协同实验”
以淼算的浸没式液冷解决方案为例,它的实现离不开多个不同领域技术的深度协作:
结构工程:TANK的材料选择、机械强度、安全封闭性;
热流体力学:如何设计冷液流动路径,实现局部热量快速带走;
材料化学:冷却液必须对电子元器件“零腐蚀、零导电、长期稳定”;
电气互联设计:液体环境下的高功率接插、防漏电与通信冗余;
算法与监控系统:动态温控、液位管理、故障检测等全靠智能算法调度。
这些模块通常隶属于不同产业链,彼此的开发语言、迭代节奏、商业诉求截然不同。在传统IT架构中,它们并不会在同一个系统内高频协同。但在液冷系统中,没有协同就没有可行性。
这也是为什么液冷产业的发展,始终高度依赖平台型企业——它需要能把材料商、系统集成商、服务器制造商、数据中心运营商“拉到一张图纸上”协调的能力。
☆生态标准化困局:液冷的“Android时刻”尚未到来
即便解决了技术问题,液冷距离“快速扩展”仍存在两道屏障:
第一是接口不兼容问题:不同厂商的TANK、液体接口、模块组装规范缺乏统一标准; 缺少行业级开源或标准化组织来推动互联互通; 各厂方案壁垒高,导致技术难以形成平台级生态。
第二是商业模式未成型: 数据中心运营商仍以“稳定优先”,不敢轻易尝试新架构;缺少成熟的服务商体系,难以支持中小企业快速部署;组件维护、清洗、液体更换等运营环节缺乏标准流程与SLA承诺。
这些都意味着:液冷产业的当前状态,更像是“技术原型时代”,尚未进入可以像安卓或x86架构那样快速复制、形成产业分工与生态协同的阶段。
从本质上讲,液冷并非单点技术革新,而是一场关于算力系统如何被制造、部署、运维乃至商业化的底层方法论革命。
它的成功与否,取决于是否能把硬件厂商、冷液供应商、数据中心建设者与终端客户整合为统一语言的产业群体,用模块化、标准化、平台化的方式实现液冷系统的工业生产与服务化交付。
在这个意义上,液冷真正的难点不在“冷”,而在“协同”。
液冷的技术可行性,在这一轮产业探索中已经初步得到验证。但产业化的真正难度,从来不是“能不能做”,而是“能不能大规模复制”。在过去十年里,我们见过太多停留在示范项目阶段的“看起来很先进”的技术,最终折戟在商业化落地前夜。
今天的液冷,站在了这一拐点的门槛上。
尽管像淼算科技这样的企业,已经交付了具备一定规模的数据中心液冷部署项目(如图精科技智算园),也展示了整机PUE低至1.09的优秀能效表现,但距离成为广泛行业应用的“通用方案”,仍有数个难关需要闯过去:
1. 行业标准缺位
液冷组件(服务器结构、TANK接口、液体类型等)缺乏统一规范,不同厂家间产品难以互通;目前多为“项目定制开发”,工程成本难以下沉。
2. 服务链不成熟
缺少专业化液冷运维公司,行业缺乏经验丰富的人才与工具标准;配套清洗、液体更换、故障处理等还依赖厂商“一条龙”交付,无法分层协作。
3. 市场认知不对称
数据中心运营商虽被PUE数据吸引,但对液冷的风险管理、寿命周期成本依然存疑中小企业对液冷仍缺乏基本认知,采购路径复杂,使用门槛高。
换句话说,液冷今天可以在少数领头企业的支撑下生存,但还未跨过那个“任何企业都能用”的门槛。
那么,液冷什么时候才能跨过那个规模化普及的“拐点”,或者说,有哪些要素能带来关键的助力?
我们认为,尽管挑战仍存,液冷正在接近一个真实的“可扩展拐点”,而这个拐点来的有多快,主要取决于下面四个关键驱动力:
1. AI模型带来高密度算力的结构性刚需
一台用于训练大模型的高性能服务器,功耗可能超过5~10kW,风冷根本无法支撑;算力密度的爆发已经不是技术选择,而是物理制约,液冷成为“默认选项”。
2. 政策驱动与绿色能效考核
双碳战略、“东数西算”工程将PUE纳入考核指标; 多地政府开始支持液冷类绿色基础设施项目,提供财政与审批支持。
3. 模块化与标准化产品逐步成型
本次发布会上,模块化服务器、标准液冷接口、即插即用的整机方案正从原型走向商品化;一旦组件体系标准成熟,整个液冷供应链将从“定制工程”走向“批量集成”。
4. 头部厂商与生态联盟的形成
淼算、亨通、睿启、壳牌、蓝厅等企业正在构建跨领域液冷生态;合作范式从“垂直整合”转向“横向协同”,为后续大规模复制铺路。
基于技术演进与产业化路径的观察,我们更倾向于认为:液冷不会一夜之间爆发,但它已经悄然进入“系统切换”的前夜。
这意味着:在传统数据中心占主导的领域(如互联网、电商类应用),液冷渗透仍将较慢;但在AI训练、科学计算、高密能耗受限的边缘算力场景中,液冷将逐步成为首选解决方案;
未来几年,将出现一批“新一代液冷原生”数据中心项目,其建设逻辑、服务模型与传统机房完全不同。这一转折不会大张旗鼓,而是像早期云计算那样,悄悄地在高价值场景中扎根,然后向下渗透。
如果说AI大模型正在重塑上层智能形态,那么液冷技术则在悄无声息地重塑着底层物理世界的算力支撑体系。
它不是热搜关键词,也很少出现在普通用户的感知范围,但它改变的是服务器的形状、能源的使用方式、数据中心的设计范式,以及整个数字经济运行的能效边界。
从这场淼算科技主导的液冷技术发布会来看,行业正在逐渐放弃过去对液冷“高风险、高成本、高复杂度”的刻板印象,转向一个更理性的问题——如果我们必须面对高热密的AI未来,那我们究竟准备好了吗?
液冷的出现,其实是一种时代必然。它并不提供奇迹,它提供的是一种“可以持续的秩序”:
一种让每1瓦电力换来更多有效算力的可能;
一种让服务器更高密度、更低噪音、更少干预地运行的方式;
一种让基础设施产业链必须重新协作的契机。
当然,它的挑战仍然巨大,生态的不确定性、标准的不统一、商业路径的不清晰,任何一项都可能让这条路走得比想象中更慢、更窄。但它也比以往任何时候都更接近工程现实。
正如有人在本次大会的圆桌论坛上所说:“我们正在从数据中心的风口时代,步入它的管道时代。”
这不仅是一种技术转型,更是一场底层工程哲学的悄然更迭——从粗放到精密,从封闭到模块,从个体硬件到系统生态。
而我们,也许正站在这场变革的边缘,看着液体流过电路,看着热量不再喧嚣,看着算力基础,迎来又一次变革。