保持最佳工作温度是许多数据中心面临的挑战。如果数据中心冷却不当,IT设备可能会过热。过热会降低服务器性能或损坏硬件。因此,管理气流对性能、成本和能源效率具有重大影响。企业非常重视数据中心制冷故障后的温升问题。保证数据中心的在线运行是一项很大的成本支出,计划外停电是绝对不允许的,更不能出现单点故障。下面我们来看数据中心机房的几种降温方式,以及降温故障对机房温升的影响!为使室内温度保持恒定,一年四季都需要降温,这带来了巨大的耗电量和电费。运营成本的双重压力迫使人们不断研发新的节能技术和产品。通过提高运行温度并利用环境空气和目标空气进行冷却,而不是将整个数据中心降低到不必要的低温,最终实现节能的目的。数据中心机房的几种散热方式1、自然冷却较高的工作温度通常也有利于自然冷却系统。在ASHRAE90.1-2010指导文件中,自然冷却几乎是节能的强制性要求,将被普遍采用。能效改造的资本投资将部分抵消运营成本节约带来的好处。但在改造或升级的同时实现自然冷却也是一项技术和投资挑战。预计未来两年内将出现新标准,使自然冷却更加可行。靠近水源的自然冷却可能更有利,但我们会看到更多类似日本京都车轮的空气冷却示例。最终,数据中心运营商将能够在比之前预期更多的气候条件下采用自然冷却,部分原因是更高的工作温度。2.密封冷却密封措施也不能解决冷却规划错误、气流不足或冷却能力不足导致的过热问题。最新的国家消防协会商业标准(NFPA-75)可能使实现密封冷却解决方案变得更加困难。喷水灭火系统和/或气体灭火系统的改造将显着增加成本。除了尽量避免错误实施外,日常优化也很重要:未使用的机架空间必须安装盲板,活动地板上的孔洞必须及时密封,地板下影响通风的电缆也必须清理干净。.3、后门冷却器的接受度也很高,部分原因是水冷方式重新受到关注。如果取消庞大的机房空调系统,取而代之的是一种新的靠近设备的冷却方式,相信数据中心行业会比现在运行得更好。教育背景和与众不同的个人愿望可能会推动新案件的产生,但成本和权力可用性将决定最终结果。4.蒸发或绝热冷却虽然使用蒸发冷却的科学很简单并且越来越受欢迎,但它对大多数数据中心运营商来说仍然很新奇。绝热冷却通过降低在封闭环境中运行的材料的压力来实现冷却,当岩浆上升到火山表面时导致材料沸腾,同时风将热量从山上带走。绝热冷却在温暖、干燥的气候中仍然有效,大大延长了一年中“自然冷却”可用的时间。它的主要缺点是耗水量大,但在相同制冷量的情况下,它仍然比标准冷却塔需要的冷却水少得多。5.紧耦合或热源冷却紧耦合冷却通过靠近热源实现更高效的运行。这不是什么新鲜事——问问老大型机操作员或任何笔记本电脑设计师就知道了。虽然紧密耦合冷却仍然是数据中心的“主流”,但更新的方法往往能更好地满足能效需求并获得更多关注。它的工作方式很简单:能量用于将大量空气吹入地板下空间或管道,然后再被拉回空调。更有前途的技术包括浸入式冷却:将服务器完全浸入矿物油中,以极低的能耗实现极其高效的冷却。但是,当技术人员需要处理里里外外都沾满油污的服务器时,他们会怎么想呢?显然这种散热方式并不适用于所有场景。6.更高的工作温度美国采暖、制冷和空调工程师协会(ASHRAE)于2008年首次发布了针对更高温度数据中心的建议,但并未引起注意。服务器不需要冷藏。即使入口空气温度为75至80°F(25至27°C),这些设备仍能继续正常运行。服务器制造商实际上已经扩大了他们产品的工作温度范围,旧设备实际上可以在扩展的温度范围内工作,就像新设备一样。提高工作温度可以节省大量能源消耗,但人们首先需要认可这个过程,然后同意让热通道变得更热——想象一下100°F(38°C)的温度?这刺激了后门冷却装置的应用和推广。7、烟囱式机柜和吊顶风管利用吊顶上方空间形成的风管将空气输送到机房空调系统,保证回风在机房处返回空调冷却盘管。最高温度,可显着提高精密空调系统的制冷能力。结合天花板管道和热通道措施的最终设备形式是烟囱架,以实现最大的冷却效率。服务器场的高温排风从机柜后部的烟囱排出,然后通过吊顶上方的风管直接返回空调设备。冷热空气在整个过程中保持分离,因此可以保持高能效比。虽然有效,但烟囱式橱柜并没有得到大力推广或广泛接受。这可能是由于密封的设计灵活性更大,允许使用更多的机柜来达到相同的效果。然而,烟囱式橱柜可以保持整个房间的冷通道温度,使工作环境更加舒适。直接和间接自然冷却数据中心使用自然冷却源进行冷却的解决方案主要包括间接自然冷却和直接自然冷却。机房空调一年四季都需要制冷。过渡季节室外温度低于室内温度时,自然界冷源丰富。如何利用自然冷源进行制冷是机房空调节能减排的关键问题。1、直接自然冷却(1)新风自然冷却直接引入室外新风,配合冷热通道隔离,实现机房降温。根据不同地区的气候条件,新风在进入机房前需要经过过滤、加湿、除湿,并与回风混合。预处理。(2)鸡舍式热压自然循环风冷,不需要机械辅助,直接依靠服务器散发的热能发电,自然散热。收集服务器散发的热量,利用空气膨胀产生向上的动力,让热空气通过足够高的烟囱上升带动气流完成散热循环。(3)轮式换热自然冷却利用转轮内部填料的储能作用,使转轮在两个封闭的风道内缓慢旋转,由室外空气冷却的填料冷却室内空气。2、间接自然冷却(1)采用自然冷却节能模块的风冷式冷水机在春秋过渡季节和夜间,当环境温度低于冷冻水回水温度两度以上时,自然冷却模块开启无压缩制冷机器的功耗,自然冷却不够的部分,再通过压缩制冷中转,达到需要的制冷量。随着室外环境温度的降低,自然冷却的比例会增加,直至达到100%,完全自然冷却制冷,不消耗压缩机功率。(2)水侧板式换热节能装置由大型冷却塔、水冷式冷水机组、板式换热器组成。夏季采用冷水机和冷却塔降温,冬季采用换板将含有杂质的冷却水转化为清洁的冷冻水。空调送入室内机,冷水机停机。(3)双盘管乙二醇在直膨式蒸发器的盘管上自然冷却,并组合一组冷冻水经济型盘管,调节水是通过板式换热器的冷凝器还是通过两组二通阀。冷冻水盘管。室外干冷器夏季向盘管提供冷却水直接膨胀冷却,冬季向经济盘管提供冷冻水进行冷冻水冷却。(4)氟泵自然冷却夏季制冷压缩机运行;当室外温度低于设定值时,自动切换到氟泵节能系统运行,停止压缩机运行,确保机房空调全年安全可靠运行。氟泵不高于压缩机运行耗电量的10%。与水系统空调相比,无需添加防冻液,更不用担心用水问题。(5)辅助蒸发自然冷却空调室外机雾化水喷淋系统,将软化水加压后通过高速直流电机雾化,使每一滴水雾化成原水滴体积的1/500左右,直接喷洒在冷凝器的翅片上实现辅助蒸发,增加了冷凝器的整体散热量,降低了电能消耗。这种通过室外机雾化喷淋来延长自然冷却运行时间的方法,在西部、东北等气候干燥的地区最为有效。综上所述,综合比较几种常见的自然冷却方式:数据中心制冷故障对机房温升的影响有多大?通过各自的实验研究,得到了部分数据中心温升曲线和因散热故障引起的数据中心基础。总之,研究了数据中心冷却系统的不同架构。对于开放式冷却系统架构,给出了不同功率密度下冷却故障后服务器机柜平均进风温度的变化曲线,如下图所示,可以看出:不同功率密度下,温升服务器机柜进风平均温度变化率不同;功率密度越高,服务器机柜平均进风温度上升越快。因此,对于热密度高的数据中心,需要设计冷库来保证冷却的连续性。研究了不同功率密度下数据中心冷却失效后的温升情况。结果如下图所示。冷却失效时间在180s以内,所以曲线比较平坦,不同曲线的基础温度不同。UI通过研究数据中心制冷故障引起的机房温升,提出了制冷连续性的概念,将数据中心制冷系统的可用性提高到与电源可用性相同的水平,并划分数据中心不间断制冷分为A、B、C三个等级,分别对应高热密度、中热密度、低热密度三种功率密度的数据中心应用场景。不同功率密度下数据中心散热故障引起的温升与时间的关系如表1所示(参考温度为20℃)。随着单机柜功率密度的增加,冷却故障引起的温升速率逐渐增大。对于功率密度为5kW/rack的数据中心,冷却故障导致10℃温升需要50s。温升率(y)与功率密度(x)最合理的拟合关系为y=0.0024x2+0.0275x+0.0003,如下图:将拟合关系改写为y=0.1x×0.024x+0.0275x+0.0003,对拟合关系的多项式系数进行主因数分析,可得:当功率密度(x)等于10kW/柜时,二次因子为0.1×10×0.024×10=0.24,小于主因数0.0275×10=0.275。当功率密度(x)小于10kW/柜时,一阶系数是主要因素,决定了整个多项式的取值,因此可以简化为一次多项式,即当功率密度小于10kW/柜时,温升率(y)与功率密度(x)更接近线性关系:y=0.0501x-0.0325(如图5所示)。比较图4和图5中拟合曲线的残差R2也容易看出,当功率密度(x)小于10kW/柜时,用线性关系来表达拟合关系更准确。现有的测试数据条件。当功率密度(x)大于10kW/柜时,由于二次项的系数是主要因素,决定了整个多项式的取值,温升率(y)和功率密度(x)为更接近于二次多项式关系:y=0.0024x2+0.0275x+0.0003。根据多项式拟合关系,对拟合数据进行外推,可以推导出10-30kW/柜功率密度范围内的温升率。研究结论各不相同,这是合理的,也是正常的。首先,各自的测试环境和工作条件不同;其次,影响温升的因素很多,如功率密度、制冷系统架构、机柜数量、机柜布局、机房高度、活动地板高度,甚至机柜材质都会影响数据中心。冷却失效后温度升高。因此,不同数据中心在制冷故障后的温升是不一样的,不能一概而论。目前,国内研究数据中心制冷故障引起温升的有效手段之一是建模和仿真分析。笔者建立了数据中心的传热模型,应用数据中心专用仿真软件对数据中心制冷故障的温升进行了计算分析。传热模型描述简化的数据中心传热模型如下图所示。数据中心被视为一个封闭的传热系统。持续发烧。(2)数据机房是一个封闭系统,只有传热,没有传质。(3)服务器运行产生的热量通过以下途径散发:①热量被机房内的空气吸收;②热量通过柜体传递到空气中;③热量通过围护结构散发到室外环境;④热量通过活动地板从下层环境传到地板散热;⑤热量通过楼板传递给相邻楼板。(4)数据中心冷热空气充分混合。(5)机柜前后门通孔率为100%,即认为机柜无前后门。(6)传热过程为一维稳态传热过程。仿真建模分析利用软件建立数据中心的简单物理模型,进行CFD建模分析。3D物理模型如图所示,模型的相关参数如下图所示:通过一个功率密度为4kW/rack的数据中心进行冷却故障建模计算,应用软件可以快速给出数据中心不同时刻的温度分布云图,如图:分析所建模型中服务器机柜的平均进风温度,当制冷失效时,服务器机柜的平均进风温度曲线为如图所示。可以看出,在服务器机柜平均进风温度达到80℃之前,其温度随时间呈线性上升。这表明:在一定的功率密度下(本模型为4kW/机架),服务器机架的温升速率是一个恒定值。这个结论和上面推导出的温升是一样的。物理参数的差异会影响冷却失效后的温升速率,但总体趋势是线性变化。
