• 冷门!液冷渗透率三年飙5倍!AI训练服务器80%用它,高盛:这数据藏着万亿机会
  • 足球资讯
产品展示
热点资讯
推荐资讯
你的位置:足球资讯 > 产品展示 >

冷门!液冷渗透率三年飙5倍!AI训练服务器80%用它,高盛:这数据藏着万亿机会

发布日期:2025-11-23 04:30 点击次数:54

2025年全球服务器冷却市场将暴涨111%,而这场狂欢的主角不是你熟悉的风扇,而是正以80%渗透率吞噬AI训练服务器的液冷技术。从15亿到124亿,AI训练服务器冷却市场三年增长8倍;从12亿到152亿,液冷市场规模十年未见的爆发曲线,正在重构整个算力时代的“散热基建”。

一、算力密度“军备竞赛”:当576个GPU挤在一个机架,风冷注定被淘汰

AI服务器的“密度战争”早已进入白热化。过去三年,AI训练服务器的机架设计完成了从“每机架144个GPU”到“576个GPU”的跨越——这意味着单位空间内的计算芯片数量翻了4倍,而发热量则呈指数级增长。高盛数据显示,当前全机架AI训练服务器的功率密度已突破500kW,相当于一个小型社区的用电负荷,传统风冷系统的散热效率(最高支持300kW/机架)早已触顶。

这不是“技术升级”,而是“生存必需”。当NVIDIA H100 GPU的单芯片功耗突破700W,当AI大模型训练需要数千颗GPU同时运转,风冷系统的“风扇狂转”不仅无法解决核心散热问题,反而会导致数据中心PUE(能源使用效率)飙升至2.0以上——这意味着每消耗1度电用于计算,就需要额外1度电散热,直接触碰全球多数国家的能耗红线。

液冷技术的崛起,本质是算力密度与能耗政策双重挤压下的必然选择。与风冷相比,液冷系统的热交换效率提升3-5倍,单服务器冷却价值含量从风冷的200美元跃升至液冷的1500美元以上。更关键的是,液冷能将数据中心PUE降至1.1-1.2,接近“理论极限值”,这让微软、谷歌等巨头在部署超算中心时,终于能绕过“能耗审批”这道坎。

二、渗透率曲线陡峭到“反常”:为什么AI训练服务器独占80%液冷蛋糕?

高盛的渗透率预测图藏着一个“撕裂点”:2027年,AI训练服务器液冷渗透率将达80%,而AI推理服务器仅20%,通用/HPC服务器更是只有8%。这种分化不是技术偏好,而是“算力强度”决定的生存逻辑。

AI训练服务器的“散热刚需”远超其他场景。训练场景需要持续高负载运转(GPU利用率90%以上),而推理场景多为间歇式负载(利用率30%-50%);通用服务器的芯片密度仅为AI训练服务器的1/10,风冷仍能勉强应对。更核心的是,AI训练服务器的单台价值量是推理服务器的5-8倍,企业愿意为“不宕机”支付溢价——液冷虽然增加10%的硬件成本,却能减少因过热导致的训练中断损失(单次中断可能损失数百万美元)。

全机架液冷的“示范效应”正在加速渗透。高盛指出,当前头部云厂商(AWS、阿里云、微软Azure)的新建AI训练集群已实现100%液冷部署,这种“全机架定制化方案”不仅解决散热问题,更通过统一的冷板、CDU(冷量分配单元)设计,将服务器部署周期从3个月缩短至1个月。当行业标杆形成,中小厂商的“从众效应”会进一步推高渗透率——2024年15%的渗透率只是起点,2025年45%、2026年74%的陡峭曲线,本质是“不跟进就被淘汰”的生存竞赛。

三、152亿液冷市场的“量价齐升”密码:冷板厂商正在闷声发大财

从12亿到152亿,液冷市场规模十年未见的“三级跳”,藏着两个核心增长引擎:“量增”与“价升”。

“量增”来自渗透率与服务器出货量的双重爆发。高盛预测,2024-2027年全球AI训练服务器出货量将以65%的年增速扩张,叠加液冷渗透率从15%到80%的提升,液冷服务器数量将增长近20倍。而每台液冷服务器需要至少2个冷板(GPU+CPU)、1套歧管、1个CDU接口,核心部件的“需求量”呈几何级增长。

“价升”则源于技术创新的“溢价能力”。冷板作为液冷系统的核心部件,正在经历从“标准化”到“定制化”的升级:Wiwyn推出的3D打印双面冷板,通过内部微通道设计,热容量提升至4kW,单价较传统冷板上涨50%;微软研发的微流控技术,直接在芯片背面蚀刻流体通道,让冷却液“贴身”带走热量,这类定制化方案的单价甚至能突破3000美元/个。

最值得关注的是“细分部件分化”。高盛数据显示,冷板、CDU/RPU、歧管等核心液冷部件的年增速将超过150%,而3D VC、散热片等传统散热组件增速仅10%-15%。这意味着液冷市场的“蛋糕”不是均匀分配,而是向掌握核心技术的头部厂商倾斜——那些能快速响应GPU厂商设计变更、具备3D打印产能、拥有微通道专利的企业,将吃下80%的利润。

四、3D打印冷板与微流控:散热军备竞赛的下一个战场

液冷技术的“军备竞赛”早已超越“谁能做”,进入“谁能做得更好”的阶段。当前行业正在探索的三大创新方向,将重新定义“散热效率”的天花板:

3D打印冷板:告别“削足适履”的标准化设计。传统冷板依赖模具制造,内部流道设计受限;而3D打印技术能实现“任意形状”的微通道(最小直径0.2mm),热交换面积提升300%。Wiwyn在OCP全球峰会上展示的两相冷板,通过3D打印实现“气液两相流”,散热效率较单相冷板再提升50%——这意味着未来单个冷板就能搞定8kW的散热需求,足以应对下一代1500W GPU的挑战。

微通道盖板:直接“贴脸”芯片散热。台湾厂商Jentech开发的微通道盖板,将传统“冷板-散热垫-芯片”的三层结构简化为“盖板-芯片”两层,热阻降低40%。这种设计不需要改造服务器机架,可直接适配现有AI服务器,成为“存量市场改造”的首选方案,预计2025年渗透率将突破30%。

微流控芯片:散热技术的“终极形态”?微软的微流控方案堪称“激进”——在芯片封装时直接蚀刻微米级流道,让冷却液(水或氟化液)以0.5m/s的速度流过芯片表面,热交换效率接近“理论极限”。虽然目前还处于实验室阶段,但这种“芯片级散热”思路一旦量产,将彻底重构液冷系统的技术路线——未来可能不再需要冷板,而是芯片自带“散热通道”。

这些创新背后,是对供应商的“能力拷问”:定制化设计能力(能否48小时内响应GPU厂商的散热需求?)、快速迭代能力(能否每季度推出适配新芯片的冷板?)、产能储备(3D打印设备的数量是否足够?)。高盛警告,液冷市场的竞争不是“价格战”,而是“能力战”——那些满足不了这三个要求的企业,即便短期抢占市场,也会在2025年的技术迭代中被淘汰。

五、三个“反常识”真相:别被增长数字冲昏头脑

当市场都在欢呼液冷“年复合增长101%”时,三个“反常识”真相值得警惕:

液冷不是“替代”风冷,而是“重构”散热逻辑。未来数据中心的散热系统将是“液冷为主、风冷为辅”——AI训练服务器用液冷,推理服务器用“液冷+风冷”混合方案,通用服务器保留风冷。高盛预测,2027年风冷市场规模仍将维持24亿美元,并非“彻底消失”。

小部件决定大格局。冷板、CDU等液冷部件的技术门槛,可能比你想象的更高。一个冷板需要适配GPU的封装尺寸、功耗曲线、热流密度,甚至要考虑冷却液的化学兼容性(防腐蚀、不导电),这种“深度绑定”让冷板厂商与GPU厂商形成“共生关系”——NVIDIA的下一代GPU设计变更,可能直接决定某家冷板厂商的生死。

增长最快的不是技术,是“适配能力”。液冷技术的迭代速度,正在追赶GPU的更新节奏。2024年适配H100的冷板,2025年可能就不适配H200,供应商必须具备“快速掉头”的能力:3D打印设备能随时切换模型,研发团队能48小时出设计方案,产线能快速扩产。这种“适配能力”比单纯的技术专利更重要。

这场液冷革命,本质是算力时代的“基础设施升级”。当AI大模型的参数从千亿迈向万亿,当自动驾驶需要实时处理PB级数据,散热能力将成为“算力天花板”——谁能解决散热问题,谁就能掌握AI时代的“水电煤”。高盛111%的增长预测背后,不是资本的狂欢,而是技术迭代的必然;80%的渗透率曲线之下,不是偶然的风口,而是“不跟上就被淘汰”的生存法则。

对于企业来说,现在不是“要不要布局液冷”,而是“如何用最快速度掌握核心技术”;对于普通人来说,看懂这场革命,或许能抓住下一个“十年一遇”的产业机会——毕竟,当一个市场从12亿涨到152亿,总有人在浪潮中乘风破浪。

#热点观察家#

------

QQ咨询

QQ: