当前位置: 首页 > 科技观察

数据中心温度计——空调系统

时间:2023-03-20 02:08:13 科技观察

标准数据中心机房需要一个恒温恒湿的内部运行环境。当然,实际中很难做到恒温恒湿。毕竟不同设备的散热在不同的时间发生变化,局部温差始终存在。一般标准要求机房内部温度控制在18~25摄氏度之间,湿度保持在40%~60%为宜。数据中心机房内部要达到温湿度标准,离不开空调系统。既然有数据中心,就必须有空调系统。空调用于调节数据中心内的温湿度内循环,为各种设备提供良好的运行环境,提高设备的运行效率,延长设备的使用寿命。现在,有一些数据中心依靠自然通风,取消空调系统以减少冷却能耗。但是,这类数据中心需要建在特定的区域,依靠自然来达到通风降温的目的,才真正投入使用。很少,绝大多数数据中心在封闭的环境中仍然使用空调系统来实现内部的恒温恒湿。然而,任何系统都有其不可靠的一面。空调等大型设备也有故障。一旦空调系统停止,对数据中心的影响将是巨大的。目前数据中心的内部设计是密闭式机房,尽量减少内外热交换,使大部分热量通过通风通道进行,降低能耗。这样做带来的风险是,一旦空调停机,内部设备带走的大量热量无法及时排出,内部温度会迅速升高。很多设备即使有大功率的风扇也于事无补,因为这些设备上的风扇是用来送风的,不是用来降温的,产生的热量不能及时排出,在内部积聚。而且这里的很多设备都是精密设备,对温度非常敏感。例如服务器的工作温度不能超过50度,交换机的工作温度不能超过70度。一个封闭的数据中心环境,从20多度爬升到50度需要几十分钟,所以空调系统就停止了。这是极其有害的。如果时间稍微长一点,很多设备就会因为过热而烧毁。有些设备可能有自己的过热保护,当温度过高时会停止工作。这也会导致大面积的业务受到影响。影响。空调系统也时好时坏。有些空调只能傻傻地降温,导致温湿度变化大,内部局部热点多。这样,有的设备长期工作在良好的温湿度环境中,而有的设备周围时冷时热,温差非常大。如此频繁的温度和湿度变化,对设备内部的元器件造成的损害比简单的加热或冷却要大。还有局部热点,即使是在一台设备内部,也会存在局部的温湿度差异,对设备的使用寿命会产生影响,而受热不均会加速设备内元器件的老化。对于电子设备,设计人员经常会做高低温实验,以测试设备的耐温性能,满足数据中心使用标准的要求。数据中心的空调系统不同于传统的舒适型空调系统。此类设施空调系统的负荷特点是显热负荷密度高、显热比高。数据中心设备的功耗将100%转化为显热负荷。数据中心空调负荷强度高,即使在冬天也需要空调降温。空调系统一旦出现故障,内部设备散热不能及时排除,机房温度很快就会超过设备工作温度的要求,可能造成设备损坏,造成巨大损失。损失。因此,数据中心应避免空调系统出现单点故障,保证系统能够提供24小时不间断制冷,并能在线维护,使部分设备或配件在不间断的情况下得到维修或更换系统的冷却。空调是数据中心内部比较复杂的系统,包括风冷和水冷两种制冷技术,各地选择哪种不同。如果采用水冷式冷水机,在设计过程中需要单独增加冷却水循环系统,包括冷却水泵、冷却塔、电子水处理设备等。每个制冷空调系统附近都有一个冷却水补充池。至少有两条市政供水渠道。当市政供水出现故障时,水池的容积至少足以让系统满负荷连续运行24小时。两路冷水分别通过不同的路线送至数据中心各楼层和空调机房,以满足容错系统的物理分区。要求。机房冷水管路和精密空调均采用2N配置:“两路市电、两路备用电源、两路低压配电系统、2N冗余机房专用空调系统、机柜系统”.任何一台冷水、一台精密空调发生故障,都不影响关键负荷100%运行,确保在线维护的需要。当空调设备突然发生故障时,可及时关闭故障设备两侧的阀门,对故障设备进行维修或更换。同时也能保证除阀门管路关闭外,空调系统及内部设备正常运行。在冷源方面,可以采用备用甚至双冷源系统,新风机组和辅助区域空调采用空气源热泵系统,并部署蓄冷罐作为应急备用冷源,确保不间断系统断电时冷却。在管道上,冷源侧和末端采用双线或环路设计,提高供水系统的可靠性和安全性,保证系统不间断运行,实现不间断的数据信息服务。需要设计一个高可用性、高可靠性、高安全性和高可扩展性的空调系统。当然,做好空调系统的冗余是对的,可以大大提高数据中心运行的稳定性。但是,这也增加了数据中心的运营成本。要知道空调系统是电老虎,占数据中心能耗的三分之一。因此,不应盲目考虑空调系统的冗余性。部署空调系统。最重要的是做好空调运行的监控工作。一旦发现停机,应立即启动备份系统,否则可在最短时间内恢复正常。