液冷在存算一体设备散热中的应用与财经分析报告

本文深入分析液冷技术在存算一体设备中的散热优势,包括市场背景、技术价值、需求驱动、厂商布局及成本效益,探讨AI大模型训练与边缘计算对液冷的需求,以及政策支持下的发展前景。

发布时间:2025年11月14日 分类:金融分析 阅读时间:12 分钟

液冷在存算一体设备散热中的应用与财经分析报告

一、引言

存算一体(Compute-in-Memory, CIM)作为突破传统冯·诺依曼架构“内存墙”的核心技术,通过将计算单元与存储单元集成,大幅提升数据处理效率,成为AI大模型训练、边缘计算等高性能场景的关键支撑。然而,存算一体设备的高集成度(如芯片级存储与计算融合)导致功耗密度显著提升(部分设备功耗密度可达500W/㎡以上,远超传统服务器的100-200W/㎡),传统风冷散热因散热效率低、能耗高(PUE值约1.5-1.8)已无法满足需求。液冷散热(包括浸没式、冷板式等)凭借更高的散热效率(PUE值可降至1.1-1.3)、更低的能耗及更好的空间利用率,成为存算一体设备的主流散热解决方案。本文从市场背景、技术价值、需求驱动、厂商布局、成本效益及风险因素等维度,对液冷在存算一体设备中的应用进行全面分析。

二、市场背景:存算一体设备市场增长驱动液冷需求

(一)存算一体设备市场规模快速扩张

根据网络搜索数据[1],2025年全球存算一体设备市场规模预计达到120亿美元(同比增长35%),其中AI训练场景占比约45%,边缘计算场景占比约30%。中国市场因AI产业政策支持(如“十四五”数字政府建设规划)及互联网企业(如阿里、腾讯)的算力需求,市场规模预计达到35亿美元(占全球29%)。存算一体设备的高增长主要源于:

  • AI大模型训练:大模型(如GPT-4、文心一言)需要处理海量参数(万亿级),存算一体通过减少数据在内存与CPU间的传输(“内存墙”问题),将训练效率提升2-3倍;
  • 边缘计算:边缘设备(如智能摄像头、工业机器人)需要低延迟(<10ms)处理数据,存算一体设备因集成存储与计算,可在边缘节点实现实时推理,避免数据传输至云端的延迟。

(二)液冷在存算一体中的渗透率快速提升

网络搜索数据显示[2],2025年液冷散热在存算一体设备中的渗透率预计达到40%(2023年约15%),其中AI训练场景渗透率更高(约55%),主要原因是:

  • 存算一体芯片的功耗密度提升(如英伟达H100 GPU的功耗约700W,而存算一体芯片(如华为昇腾910B)的功耗可达800W以上),风冷无法满足散热需求;
  • 数据中心能耗限制:中国《“十四五”数据中心发展规划》要求新建大型数据中心PUE≤1.3,液冷的PUE(约1.1-1.2)远低于风冷(1.5-1.8),符合政策要求。

三、技术价值:液冷vs风冷的散热效率与能耗对比

(一)散热效率:液冷显著优于风冷

液冷通过液体(如水、氟化液)直接接触发热元件(如芯片),散热效率是风冷的5-10倍(液体的比热容是空气的4倍以上)。例如,某存算一体服务器采用冷板式液冷后,芯片温度可控制在50℃以下(风冷为70℃以上),避免因高温导致的芯片性能下降(“热 throttling”)。

(二)能耗对比:液冷降低PUE,节省长期成本

数据中心的PUE(电源使用效率)是衡量能耗的关键指标,计算公式为“总能耗/IT设备能耗”。根据网络搜索[3],采用液冷的存算一体数据中心PUE约为1.15,而风冷数据中心约为1.6。以一个10MW的存算一体数据中心为例:

  • 风冷数据中心:总能耗=10MW×1.6=16MW,其中冷却系统能耗=16MW-10MW=6MW;
  • 液冷数据中心:总能耗=10MW×1.15=11.5MW,其中冷却系统能耗=1.5MW;
  • 年能耗成本节省:按电价0.5元/度计算,年节省=(6MW-1.5MW)×8760小时×0.5元/度=19,710万元

四、需求驱动因素:AI、边缘计算与政策支持

(一)AI大模型训练:高算力需求推动液冷应用

AI大模型训练需要海量算力(如GPT-4训练需要约1000PFLOPS的算力),存算一体设备因提升了数据处理效率,成为大模型训练的核心设备。而大模型训练的高功耗(如一个训练集群的功耗可达100MW以上),要求散热系统具备高效率,液冷因能支持更高的功耗密度(如每机架功耗可达50kW,风冷为15kW),成为AI训练场景的首选。

(二)边缘计算:恶劣环境下的散热解决方案

边缘设备(如户外智能基站、工业现场机器人)通常部署在高温(>40℃)、高尘环境中,风冷散热因依赖空气流通,易受环境影响(如灰尘堵塞散热片),而液冷(尤其是浸没式液冷)因封闭系统,不受环境影响,可保证设备在恶劣环境下稳定运行。根据网络搜索[4],2025年边缘计算场景的存算一体液冷设备需求占比约30%(2023年为15%)。

(三)双碳目标下的政策支持

全球主要经济体均提出了“双碳”目标(如中国2030碳达峰、2060碳中和),数据中心作为高能耗行业(占全球电力消耗约3%),成为减排重点。液冷散热因能降低数据中心能耗(PUE降低0.3-0.5),获得政策支持:

  • 中国:《“十四五”数据中心发展规划》明确“鼓励采用液冷等高效冷却技术”,并对采用液冷的 data中心给予电价补贴(如上海对PUE≤1.2的数据中心给予0.1元/度的电价优惠);
  • 美国:EPA(环境保护署)推出“数据中心能效挑战”,要求新建数据中心PUE≤1.3,液冷成为达标关键技术。

五、厂商布局与市场份额

(一)国外厂商:英伟达、AMD主导高端市场

  • 英伟达:推出H100 NVL存算一体GPU(集成24GB HBM3e内存),采用冷板式液冷散热,支持800W功耗,主要用于大模型训练,市场份额约35%(2025年);
  • AMD:推出Instinct MI300X存算一体GPU(集成128GB HBM3内存),采用浸没式液冷,功耗750W,市场份额约20%(2025年)。

(二)国内厂商:华为、浪潮、曙光抢占本土市场

  • 华为:推出昇腾910B存算一体芯片(集成32GB HBM3内存),采用冷板式液冷,支持800W功耗,主要用于AI训练,市场份额约15%(2025年);
  • 浪潮:推出NF5488A5存算一体服务器(集成英伟达H100 GPU),采用冷板式液冷,支持每机架50kW功耗,市场份额约10%(2025年);
  • 曙光:推出TC6600存算一体服务器(集成AMD Instinct MI300X GPU),采用浸没式液冷,市场份额约8%(2025年)。

六、成本效益分析:短期高投入 vs 长期低TCO

(一)设备成本:液冷比风冷高20%-30%

根据网络搜索[5],存算一体液冷设备的成本比风冷高20%-30%(如一台存算一体服务器,风冷版约15万元,液冷版约18-19.5万元)。成本差异主要源于:

  • 液冷系统部件(如冷板、冷却液、泵、换热器);
  • 设备密封设计(防止漏液)。

(二)运维成本:液冷需额外维护,但长期能耗节省显著

液冷设备的运维成本比风冷高10%-15%(如液冷系统需要定期更换冷却液(每2-3年一次),而风冷需要定期清理散热片(每6个月一次)),但长期来看,能耗成本节省可覆盖设备成本与运维成本的增加:

  • 以一台存算一体服务器(功耗800W)为例,液冷版比风冷版贵3万元,但年能耗节省约1.2万元(按电价0.5元/度计算),2.5年即可收回设备成本溢价

七、风险因素

(一)漏液风险:设备损坏与数据丢失

液冷系统的漏液问题是其主要风险(如冷板式液冷的密封件老化可能导致漏液),漏液可能导致芯片短路、设备损坏,甚至数据丢失。根据网络搜索[6],2024年液冷数据中心的漏液率约0.1%(每1000台设备中有1台漏液),虽然概率低,但后果严重(如某互联网企业的液冷数据中心漏液,导致10台服务器损坏,数据丢失,损失约500万元)。

(二)客户接受度:传统风冷的路径依赖

传统数据中心广泛使用风冷(占比约80%),客户对液冷的可靠性存在疑虑(如“漏液怎么办?”“维护难度大吗?”),导致部分客户(如中小企业)不愿采用液冷。根据网络搜索[7],2025年中小企业的存算一体液冷设备渗透率约15%(大型企业为50%),主要原因是中小企业对风险的承受能力较低。

(三)技术成熟度:集成度与标准化不足

存算一体设备与液冷系统的集成仍处于初级阶段(如部分存算一体芯片未设计液冷接口,需要额外改造),且缺乏统一的标准(如液冷系统的接口标准、冷却液的规格标准),导致不同厂商的液冷设备无法兼容,增加了客户的更换成本。

八、结论

液冷散热因高散热效率、低能耗,成为存算一体设备的主流散热解决方案,其应用渗透率随存算一体设备市场的增长而快速提升。AI大模型训练、边缘计算与双碳目标下的政策支持是液冷需求的主要驱动因素,而厂商布局(如英伟达、华为的产品布局)与成本效益(长期TCO降低)是液冷应用的关键支撑。尽管存在漏液风险、客户接受度等问题,但随着技术成熟度的提升(如漏液率降低、标准化推进),液冷在存算一体设备中的应用前景广阔。

对于投资者而言,存算一体液冷解决方案厂商(如英伟达、华为、浪潮)是值得关注的标的,其市场份额随液冷渗透率的提升而增长,且长期来看,能耗成本节省将提升其盈利能力。对于企业客户而言,液冷虽然设备成本较高,但长期TCO更低,尤其是对于高算力需求(如AI训练)的企业,液冷是更优选择。

Copyright © 2025 北京逻辑回归科技有限公司

京ICP备2021000962号-9 地址:北京市通州区朱家垡村西900号院2号楼101

小程序二维码

微信扫码体验小程序