摘要:本文结合当前某数据中心的实际案例,针对空调系统主要用电设备及空调末端的深化建议,采用 水冷磁悬浮制冷主机及热管空调设备形式 ,对数据中心的 PUE 值有很大提升。采用更为稳妥的补水系统及挡水设计,确保数据中心的安全、稳定运行。对管道进行合理的走向布置,让管网更优、更完美的呈现在实际安装工程中。 0 引言
摘要:本文结合当前某数据中心的实际案例,针对空调系统主要用电设备及空调末端的深化建议,采用 水冷磁悬浮制冷主机及热管空调设备形式 ,对数据中心的 PUE 值有很大提升。采用更为稳妥的补水系统及挡水设计,确保数据中心的安全、稳定运行。对管道进行合理的走向布置,让管网更优、更完美的呈现在实际安装工程中。
0 引言
近几年来,随着我国互联网、云计算和大数据产业的加速发展,数据中心产业也进入了大规模的规划建设阶段。 2011 年到 2013 年上半年全国共规划建设数据中心 255 个数据中心中近 90% 的设计 PUE 低于 2.0 ,平均 PUE 为 1.73 。超大型、大型数据中心设计 PUE 平均为 1.48 ,中小型数据中心设计 PUE 平均为 1.80 。另外,一些老旧数据中心通过采用先进制冷节能技术改造, PUE 也降到 2.0 以下。
鉴于在当今数据中心的日常运维中、所遇到电力供应不足、水资源匮乏、日益增高的水电费开支已成为能否建立绿色数据中心机房的“瓶颈性”制约因素。
在这样的背景下,在当今相当多新建数据中心的技术验收评估工作中, PUE 值的高低已成为评估数据中心建设水平高低不可或缺的重要技术指标。降低数据中心 PUE 值推荐技术措施,相比通过提高 UPS 的效率来降低总 PUE 值的贡献率非常有限,关键措施是提高空调制冷系统的节能环保特性。
1 原空调系统简述
本工程为某云计算数据中心项目,位于河南省新乡市,本工程建筑面积 14300 m2 ,地上三层为制冷站、数据机房、附房及行政办公区,地下一层为消防水池及消防泵房。 3 kW 机柜 60 架、 4 kW 机柜 696 架、 6 kW 机柜 234 架。
机房设备及建筑负荷约为 7000 kW ,按《数据中心设计规范》 GB50174-2017 规范 A 级计算机房要求,制冷主机系统选用 N+1 ,主机选用两台 3517 kW ( 1000 RT ) +2 台 1758 kW ( 500RT )水冷变频离心机组。供水温度为 12 ℃,回水温度为 17 ℃。冷却水进出水温度为 32~37 ℃。制冷站房冷冻水供回水系统设计为环路形式,通过两个分水器、两个集水器设置几路环路,末端设备连接在各个环路上,通过切换阀门可以实现不间断供冷的情况下检修局部设备。
冷却塔为常年运行,设计选取开式冷却塔,四组冷却塔与冷却水泵,制冷机组(板式换热器)为一一对应,独立交替运行。冷却塔相关参数要满足夏季工况和冬季工况。冬季冷却塔运行时要采取防冻措施,室外管道加电伴热装置,冷却塔积水盘加电加热装置。冷却塔风机可变频运行。
加湿系统房间级空调自带加热加湿模块,设列间空调的高密机房设置独立湿膜加湿机满足室内湿度要求,每层水处理间内设置一台水处理设备为房间级精密空调及湿膜加湿机提供加湿水源。
主机房低密度( 3 kW 、 4 kW )模块机房采用房间级空调,封闭冷通道,地板下送风侧回风。高密度( 6 kW )郭鹏学暖通模块机房采用列间空调平送后回。冷通道送风温度为 19~22 ℃,热通道的回风温度设计为 35 ℃。以上空调根据按《数据中心设计规范》 GB50174-2017 规范 A 级计算机房要求,空调末端系统选用 N+1 备用。
2 对原空调系统改造的可行性分析
用电效用 PUE ( PowerUsage Effectiveness )是评价数据中心能源效率的指标,是数据中心消耗的所有能源与 IT 负载使用的能源之比,是 DCIE ( Data Center Infrastructure Efficiency )的反比。 PUE= 数据中心总设备能耗 /IT 设备能耗, PUE 是一个比率,基准是 2 ,越接近 1 表明能效水平越好。
2.1 选用高效节能的制冷主机
机组绝大部分时间是在部分负荷下运行 。 采用变频技术的离心机可以通过降低转速,降低压缩机功耗 。实际工作中,只有采用 磁悬浮变频冷水机组才能根据实际负荷和压力比调节转速,实现最大的技能效果 ,如表 1 所示:
表 1 三种制冷主机部分负荷时的能效比( COP )
转自HVAC空调解决方案,版权属于原作者,供学习交流。