数据中心的浪浪山

脑极体
关注

第二重山:冷

前面提到,机柜功率密度的提升,会让制冷用电上升。可能有机智的小伙伴会问,采用更高效节能的制冷方式,不就可以解决这个问题,顺利向高密度进化了?

确实如此,数据中心行业为了更加节能的制冷系统,可谓是操碎了心。一方面是加速“西算”,充分发挥乌兰察布等西部地区的气候优势,建设新数据中心,利用室外自然冷源。“数字中国万里行”实地考察了7个数据中心集群,发现张家口数据中心集群、和林格尔数据中心集群的数据中心,一年有 10个月以上的时间可以使用自然冷源,年均 PUE 可达 1.2。

数据中心的浪浪山

另外就是发挥液体冷却在降低能耗上的优越性,逐步用液冷服务器替代风冷。比如阿里巴巴2018年在河北省张家口市张北县部署了一个浸没式液冷(Immersion Cooling)机房,一个卧置的54U机柜,部署32台1U双路服务器和4台4U的JBOD。开篇我们提到,风冷机房给女员工着装上带来的小困扰,液冷技术就能很好地解决这个问题。

这是不是意味着,液冷技术很快会在数据中心行业普及呢?结束2021年数字中国万里行后,益企研究院推出的《2021中国云数据中心考察报告》,给出了“谨慎观望”的答案。

我们认为,原因有三:

1.成熟期的生态问题。

液体冷却虽然制冷效率远高于风冷,但长期以来,风冷机房在数据中心建设中占据了主流,几十年一贯制的风冷服务器已经形成了成熟的生态链,建设和运营成本都有优势,因此一些气候优越的地区,风冷方案就可以满足降PUE的需求,比如华为乌兰察布云数据中心就以 8 千瓦的风冷机柜为主。此外,在一些东部中部地区有引入液冷的需求和意愿,但也要考虑成本,如果能够通过优化UPS架构,采用智能化能效管理方案等,取得显著的节能效果,那么能风冷就风冷。

数据中心的浪浪山

2.过渡期的技术问题。

当然,对于HPC、AI等计算,采用液冷的优势很大,因此也有一些公司希望尝试液冷技术,但又不想改造风冷机房,于是从风冷升级到液冷的过渡期,出现了“风液混布”的市场需求。

我们知道,风冷服务器可以与制冷设备松耦合,环境适应性、灵活度很高,而浸没式液冷需要将服务器的板卡、CPU、内存等发热元器件完全浸没在冷却液中,喷淋式液冷则需要对机箱或机柜进行改造,二者带来的成本都比较高。过渡期中,冷板式液冷与风冷混合使用,是比较适合的方案。但是,冷板式液冷要将冷板固定在服务器的主要发热器件上,依靠流经冷板的液体将热量带走,全密封和防泄漏要求高,设计和制造难度很大。

数据中心的浪浪山

(华为云东莞松山湖数据中心部署的Atlas 900集群,采用风液混合技术散热)

3.产业链的协作问题。

液冷数据中心需要产业链上下游的协同创新,包括制造、设计、材料、施工、运维等各个环节。风冷模式也正因为松耦合,导致制冷行业和数据中心行业是比较割裂的,推动数据中心向液冷变革,必须要构建一个新的生态,加强各角色的联系,降低液冷服务器的前期制造成本和后续维护成本。这需要一个多方磨合、配合的过程,不是一朝一夕能够实现的。

从这些角度来看,液冷数据中心虽然是大势所趋,但还有较长的路要走,整个行业都在持续关注变化。

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存