成为拥有核心技术的半导体元器件供应商和解决方案商
电话咨询(微信同号): +86 18926567115

新闻资讯

知识专栏

机架密度上升对电源连接器意味着什么

作者: 浮思特科技2026-04-21 13:51:13

人工智能不仅已成为现代计算的基础,也正日益成为广泛应用于各类人类活动中的工具。然而,执行复杂任务所需的计算能力正给全球基础设施带来前所未有的压力。

数据中心仅用于承载企业网络应用、存储和云服务的时代已经过去了。过去,3到8千瓦的功率密度就足以满足机架供电需求,每个机架的功率很少超过10到15千瓦。

先进的大语言模型和日益复杂的仿真工作负载,如今都需要大规模并行计算。基于专用GPU(如英伟达的Blackwell和Rubin芯片)和Tensor处理单元(TPU)构建的新架构,已将机架功率密度推高至60千瓦以上,而高性能集群的每个机架功率已超过100千瓦。如果说过去一个典型数据中心有20到40兆瓦的供电就够了,那么当今最高强度的工作负载则需要100兆瓦甚至更多,而对于超大规模基础设施来说,数千兆瓦已成为现实目标。

机架密度上升对电源连接器意味着什么(图1)

随着这种范式转变,不仅需要寻找新的能源,还必须重新审视数据中心内部的能源分配方式,并开发更高效的冷却系统。

传统冷却系统

根据国际能源署的数据,数据中心的用电量将从2024年的415太瓦时增加到2030年的945太瓦时。这种激增给能源管理和冷却策略带来了巨大挑战。

传统上,数据中心依靠气流冷却来排除多余热量。这些系统依赖于定义明确的气流布局(如热通道和冷通道),以将服务器和网络硬件维持在安全的工作温度范围内。

虽然对于较低密度的设施,空气冷却在成本上仍具竞争力,但基于GPU计算的快速增长正将传统的气流冷却方法推向极限。为了应对不断上升的热负荷,大多数数据中心运营商正越来越多地转向液体冷却技术,这实际上正在将液体冷却从小众解决方案转变为下一代数据中心设计的关键组成部分。

连接器的作用

风冷系统要求电源供应器和电源分配单元所使用的连接器能够承受热通道环境中较高的运行温度,而浸没式冷却则要求组件在浸入介电流体中时也能安全运行。

安德森电源公司就是一家专注于大功率互连产品的企业。在评估液体冷却的未来发展时,我们与该公司的产品经理肯·威廉姆斯进行了交流,他在计算、制造和自动化控制领域拥有多年经验。

冷热通道布局

当每个机架的功率密度接近100千瓦时,冷热空气的混合可能会成为一个大问题。如果排出的热空气被意外吸入冷风入口,服务器将消耗更多功率,并面临更高的热失控风险。

与使用电力或化学制冷剂的主动冷却解决方案不同,被动冷却系统(有时仅需可循环利用的水)利用的是气流优化的概念。冷热通道封闭系统就是其中一种,其原理是将服务器排出的热空气与吹向服务器的冷空气隔离开来。

在常见的布局中,数据中心的机架以冷热通道交替排列的方式布置,为冷空气入口和热空气出口创建了不同的区域。热通道面向服务器的排风口,而冷通道则暴露在空调的气流中。

新方法

对于即将兴起的超大规模和AI数据中心园区来说,这种空气冷却方法很难奏效,因为这些场所的巨大计算负荷会产生更多的热量,需要更新型的冷却方法,例如直接芯片液体冷却和浸没式冷却。威廉姆斯对液体冷却和浸没式冷却评论道:

"向液体冷却和浸没式冷却的转变主要由超大规模计算公司推动,他们正竞相为AI、生成模型和其他高性能工作负载提供更强大的计算能力。这些公司正在将机架密度远远超出传统服务器的水平,从过去约20千瓦的峰值跃升至如今的100多千瓦,而业界已经在关注未来1兆瓦的机架。在这样的功率水平下,即使是最好的风冷策略也无法胜任。"

随着性能需求的提高,与计算机房空调系统相关的机械基础设施、能源需求和噪音问题变得越来越难以合理化。液体冷却和浸没式冷却提供了前进的道路,它们具有更高的热效率,通常能将冷却相关的能耗降低60-95%,并提升高达120%的处理能力,同时使硬件温度更稳定、更均匀。威廉姆斯继续说道:

"从熟悉的空调系统过渡到基于液体的冷却架构,会带来更高的前期成本、增加的复杂性,并且需要拥有相应管道、流体管理和监控专业知识的合作伙伴。对许多运营商来说,这不仅代表着冷却方式的改变,更代表着数据中心设计和维护方式的广泛转变。"

不同的液体冷却系统

在单相浸没式冷却中,ICT设备部分或完全浸没在液相介电质中,这种介电质由碳氢化合物或氟化液组成。

在两相浸没式冷却中,设备浸入的流体会发生相变,从液体变为气体,再通过冷凝变回液体。该系统可处理高达每个槽罐250-500千瓦的功率密度,非常适合高功率集群。

第三种方法是直接芯片冷却,即通过冷板将冷却液直接输送到GPU等温度更高的组件。

液体冷却的优点包括易于扩展、处理能力更高、能耗降低、设备寿命更长以及占用空间更小,因为这类系统不需要庞大的气流基础设施。

连接器如何演变

显然,浸没式系统对电气连接器施加了更严格的限制,正如威廉姆斯所解释的:

"直接芯片冷却通过创建比风冷系统更稳定、更均匀的温度分布,改变了服务器电路板上GPU的热环境,从而减少了高密度机架中可能出现的极端热点。

在传统的风冷环境中,连接器在热通道可能暴露在40-50°C的环境温度下,而在负载条件下,连接器内部温度会攀升至70°C以上,这将许多标准耦合器推向了极限。在直接芯片冷却设计中,冷却板及其软管连接到服务器板上的处理器,而电源连接器则安装在托盘的前缘或后缘。这种自然分离避免了管道系统干扰连接器放置或布线,并且连接器区域周围的金属外壳有助于消散负载下产生的任何热量。

在浸没式系统中,连接器可能部分或完全浸没,这意味着它们必须依赖与用于冷却设备的介电流体化学兼容的材料。在所有液体冷却架构中,共同点是,随着电流负载增加和热余量收紧,不断上升的功率密度使得连接器的可靠性、放置位置和材料选择变得更加重要。"

新颖设计需要新材料

关于满足新要求的材料选择,威廉姆斯给出了以下评论:

"材料选择对于确保连接器能够长期承受浸没式冷却数据中心中使用的介电流体的影响至关重要。这些系统依赖于具有不同化学性质、沸点和稳定性的工程冷却液(通常是氟化液或碳氢化合物液体),因此每个连接器组件的选择都必须考虑兼容性。

为确保长期可靠性,安德森电源在特定的介电流体中对连接器材料进行高温测试,以模拟数年的暴露影响,然后与冷却液供应商合作分析是否发生了任何浸出或化学反应。随着浸没式冷却被更广泛地采用,行业已进入一个更成熟的阶段,主要的兼容性风险现已得到充分理解,流体化学成分得到定期监测,连接器设计也越来越多地针对在这些环境中的可靠运行进行专门设计。"

连接器行业标准化

尽管为浸没式冷却系统设计的连接器正变得越来越普及,但相关标准仍在制定中。威廉姆斯继续说道:

"开放计算项目(安德森电源是其企业级青铜会员)正在积极制定有关液体冷却架构的指南。与此同时,UL等传统标准组织及其欧洲和亚洲的对应机构,正面临压力,需要更新那些从未针对当今电压水平、功率密度或冷却方法而制定的长期规范。"

诸如与介电流体的材料兼容性、爬电距离和电气间隙、长期化学暴露限值以及针对浸没环境定制的测试协议等议题,都需要得到解决。

未来展望

随着机架功率接近兆瓦级,连接器技术必须随之发展。数据中心内部的配电也正迅速从目前的12V背板转向48-54V系统。接下来,800V直流电可能会直接输送到机架,正如英伟达目前所大力倡导的那样。这种动态变化对连接器技术有何影响?威廉姆斯回答道:

"安全地支持这些更高的电压将需要更强大的绝缘系统、更大的爬电距离和电气间隙,以及能够在风冷和流体暴露环境中防止电弧的连接器几何设计。同时,运营商希望在相同的占地面积内获得更多功率,这推动了对紧凑、高效接触件设计以及对三相电和高压直流电支持的需求。

这些转变发生的同时,有预测表明,到2030年,数据中心的耗电量可能占到美国总耗电量的8%,这凸显了电力传输硬件必须跟上快速增长的能源需求是多么重要。

随着直接芯片冷却和浸没式冷却系统变得越来越普遍,连接器将需要能够在介电流体中保持稳定并在日益复杂的热环境和化学条件下保持可靠性的材料和密封方法。"