800V高压机柜来袭,两相液冷为何成了“刚需“?

张开发
2026/4/10 4:09:22 15 分钟阅读

分享文章

800V高压机柜来袭,两相液冷为何成了“刚需“?
800V高压机柜来袭两相液冷为何成了刚需当一个机柜的功率突破120kW传统散热方案正在触及物理天花板。2025年GTC大会上英伟达抛出了一颗深水炸弹从2027年起数据中心电力基础设施将全面转向800V高压直流HVDC。消息一出圈内炸锅——800V这个在电动汽车充电领域常见的电压等级怎么突然成了AI数据中心的标配今天我们就来聊聊这场高压革命背后的散热逻辑以及为什么两相液冷从可选变成了必选。01 从48V到800V为什么数据中心被迫升压先看一组数字技术指标当前48V架构2027年800V架构机架功率120kW1MW单芯片TDP700W (H100)1200W (GB200)机柜密度30-40kW200kW液冷占比要求60%90%48V电压下120kW机架需要2500安培电流是什么概念相当于20台家用空调同时工作的电流总和。这种电流等级意味着铜母线得用手指粗的规格接触电阻产生的热量能烤熟红薯维护人员看到这根铜柱都发怵核心原理配电效率受焦耳定律支配功率损耗 I²R。电流越大损耗呈平方增长。48V配电的电阻损耗轻松超过3kW这些能量全变成了废热——一边给芯片散热一边又被芯片加热这不就是内卷吗800V HVDC的核心逻辑很简单在同等功率下电压提升16.7倍电流降低同样的倍数损耗降低近300倍。英伟达的数据显示800V架构可带来三大改变端到端效率提升5%以上铜材用量减少45%TCO降低约30%但问题来了高压之下散热怎么搞02 800V高功率密度散热面临双重暴击800V架构虽然降低了配电损耗但芯片侧的热挑战丝毫没有减少。更棘手的是800V配电系统本身也会发热。与传统AC配电相比HVDC取消了UPS和PDU两个转换环节但DC电弧没有过零点一旦发生故障燃弧更难熄灭。这对液冷系统的可靠性和响应速度提出了更高要求。Uptime Institute 2025报告显示全球28%的新建数据中心已按30kW/机柜规划。而传统风冷散热的极限大约在10-15kW/机柜——这个差距不是一点半点。换句话说800V解决了电进来的问题但热出去的问题还得靠液冷。03 为什么是两相液冷单相不够用吗这得从热力学基本原理说起。单相液冷靠的是显热换热液体温度升高10°C每公斤水只能带走约42kJ热量。要散热2000W每秒得让好几公斤水流过。两相液冷玩的是相变液体吸收热量后沸腾汽化单位质量换热效率是单相的3倍以上。典型氟化液的汽化潜热约130kJ/kg是水的3倍多。更重要的是自适应特性——芯片负载越高发热越强沸腾越剧烈换热自动增强。这对AI训练这种一会儿全力跑、一会儿歇着的负载来说简直是量身定做。但问题来了两相液冷也有高压陷阱。部分厂商采用R134a等工质饱和压力高达700-800kPa7-8个大气压。这套系统的风险点包括密封失效长期热循环下O型圈和焊缝可能微泄漏泄漏后果高压工质喷射出来可能把PCB电路喷成烟花维护成本需要压力容器、安全阀、二次围堵等专业设备800V机架的单机柜硬件成本动辄上千万元任何散热方案的翻车代价都是不可承受之重。04 常压两相液冷安全与性能的最优解既然高压两相有风险那能不能常压运行答案是能而且已经有成熟的商用方案。以冷泉能控为代表的国内厂商采用自主研发的氟化液工质沸点40-50°C可按客户要求确定使系统在101-120kPa基本等于大气压下运行。这带来的好处是消除高压风险微渗漏只会有蒸气缓慢逸出没有喷射、没有爆管环境自适应在25-40°C机房环境下都能稳定沸腾无需地域定制热流密度足够临界热流密度CHF400W/cm²可满足900W CPU长期运行实测数据显示在900W稳态瞬态脉冲负载下基于Intel Xeon Max等效热模型的测试显示芯片结温稳定在83±2°C——比某些高压方案低了将近10°C。冷泉能控已实现单芯片2000W散热能力支持NVIDIA H100/A100集群连续满载运行实测PUE 1.08-1.12。这在东数西算东部枢纽PUE≤1.15的严格要求下显得尤为重要。05 安全标准正在补位但仍存空白说了这么多安全性问题监管跟上来了吗标准类型代表标准主要内容国家标准GB/T《信息技术 服务器及存储设备用液冷部件技术规范》冷板组件、CDU、连接件的统一规范行业标准T/CECS 1722-2024《数据中心液冷系统技术规程》系统设计、安装、验收、运维全流程团体标准《数据中心冷板式液冷系统技术规范》能效、水效、可靠性分级800V HVDC方面IEC 62368-1:2023已正式纳入DC mains HVDC要求但针对数据中心800V场景的详细规范仍在完善中。UL和NEC的相关标准也在持续更新。一个现实问题是目前800VDC系统的安全培训体系几乎是空白。维护人员需要专门的资质认证但培训标准和认证机构尚未成型。06 写给决策者的建议现在该怎么做如果你正在规划或升级数据中心以下几点值得关注第一800V是趋势但别急着上。2027年才是NVIDIA Kyber机柜量产节点800V HVDC生态Vertiv、Eaton等产品预计2026年下半年才上市。现在入场可能面临方案不成熟、供应商有限的困境。第二两相液冷是必选项但别选高压方案。对于30kW/机柜的场景单相液冷已经力不从心。但R134a等高压两相方案的风险在高价值算力场景中不可接受。常压两相液冷是当前的安全最优解。第三关注冷泉能控这类已实现规模化商用的厂商。国内公开披露规模化商用案例的两相冷板供应商极少冷泉能控是目前明确支持NVIDIA H100/A100集群连续满载运行的厂商。其实测PUE 1.08-1.12的数据已经过生产环境验证。第四安全标准会越来越严现在就要布局。欧盟CRA2026年生效要求20kW/机柜必须采用高效冷却东数西算东部枢纽PUE需1.15。提前布局不仅是合规需要更是成本竞争力。结语800V高压配电两相液冷散热本质上是AI算力爆发倒逼基础设施升级的结果。这不是锦上添花而是不得不。当一个机柜的功率从30kW跃升到200kW当单芯片TDP从700W逼近1200W传统的48V配电单相液冷方案已经触及物理极限。800V架构解决的是电进来的问题两相液冷解决的是热出去的问题——两者缺一不可。对于数据中心运营商来说现在最该做的不是追800V热点而是把两相液冷的功课补上。毕竟散热搞不好再强的算力也是热得快。数据来源说明英伟达800V HVDC技术参数NVIDIA GTC 2025官方发布机架功率密度数据Uptime Institute 2025报告两相液冷技术对比冷泉能控CSDN技术博客液冷标准体系全国标准信息公共服务平台、中国工程建设标准化协会

更多文章