随着移动数据、云计算、大数据业务的快速发展,数据中心建设规模越来越大,数据中心业主对数据中心的需求越来越大。数据中心节能也逐渐凸显出来。近年来,出现了很多数据中心节能新技术,但都没有突破思维瓶颈。他们一直孤立地专注于数据中心基础设施层面的技术创新,并没有将服务器设施层面纳入数据中心节能项目。统一、系统仔细考虑数据中心的节能问题,数据中心的设计PUE值很难突破1.60的极限。曙光液冷服务器PHPC300业界批评数据中心降耗节能2000年前后的互联网泡沫,留给人类的技术遗产是服务器形态的革命和数据中心建设理念的革命——由于服务器的大规模应用,机架式服务器取代了塔式服务器;同时引发了数据中心建设的革命——从机房环境到机柜微环境,高架地板数据中心成为数据中心的建设标准。随后的十年间,数据中心市场逐渐进入快速发展期。IT设备机架化不仅节省了数据中心的物理空间,还提高了机柜的功率密度。数据中心的功率密度逐渐从低密度向中密度发展,其间出现了局部热点等诸多技术问题。遗憾的是,对于这些新兴的技术问题,业界并没有意识到这是更高功率密度新时代的预兆,没有认真思考解决方案,而是不负责任地试图用传统的方法来解决这些新问题。因此,虽然数据中心能耗指标PUE值从最初的3.00逐渐下降到2.00以下,但一直难以突破1.60。究其原因,是技术发展战略缺乏产业整合思维。事实上,数据中心能耗贡献最大的设备或部件——CPU、内存、服务器散热系统、数据中心空调系统、数据中心UPS系统,相关行业都在自主研发节能技术,并且大多数行业的技术创新潜力已经耗尽。不改变技术战略和思维方式,几乎不可能产生重大技术成果。国内外一些行业龙头已经意识到这个问题,并开始有所行动。目前主要有两大技术方向:采用数据中心新风直接自然冷却技术的高温风冷服务器,以及采用数据中心水系统或氟系统间接自然冷却技术的液冷服务器。前者依靠提高服务器热源等级和特殊气候环境来实现节能,后者则依靠减少传热过程中的热等级损失来实现节能。2013年,Facebook向外界披露其位于瑞典北部小镇吕勒的数据中心,采用新风直接自然冷却技术。吕勒奥位于波罗的海北岸,距北极圈仅100公里。当地的气候因素是Facebook选择在吕勒奥建立数据的重要原因之一。据Facebook称,自1961年以来,吕勒奥的气温没有超过24小时高于30度。在此区域设置数据中心将节省大量冷却费用。但从全国各地的气候情况来看,南方气温高,北方风沙大。像吕勒奥这样的数据中心几乎没有理想的位置;在全球范围内,新风自然降温技术的应用场景很少。液冷服务器技术受到的限制较少,因为它不需要空气进入数据中心,甚至服务器。早在几年前,IBM等公司就开发出以纯水为工作介质的间接液冷服务器来替代风冷服务器,大大提高了PUE指标,因为他们意识到以空气作为冷却介质,远非理想的防腐材料;在冷却方面,水的效率是空气的1000倍。所谓间接液冷,就是液体不接触发热元件,而是通过冷板、冷库等将液体与发热元件隔离开来。不过,英特尔和美国的3M却另辟蹊径,采用特殊的液体直接接触发热部件进行热交换,即直接液冷服务器技术,或浸入式液冷服务器技术。这就需要找到一种技术,让具有优良电磁兼容性、电气兼容性、物理兼容性和化学兼容性的液体直接与发热元件接触。中科曙光从2010年开始研究液冷服务器技术,对于液冷服务器未来的发展方向,可以说与美国3M公司“英雄见仁见智”。它在许多技术方面进行了创新,形成了新技术。系统。液冷服务器打造行业节能新标杆。曙光一直致力于高效制冷技术的研究,并不断将其应用到产品中,造福曙光客户。曙光CloudBASE?系列C1000/2000/3000/4000解决方案均针对风冷服务器,采用气流组织优化(包括池级、行级、机柜级)、温湿度控制解耦、氟泵自然冷却等。成熟技术的具体实施方案,根据目前这些方案在国内的运行数据,已经成功将数据中心的PUE值从2.00降低到1.60。曙光液冷服务器在德国莱比锡ISC'14展示了最新的液冷服务器技术。从目前的实验室数据来看,采用液冷服务器的数据中心,结合高效的氟泵循环系统,可以去除压缩机,全年在自然冷却条件下运行,从而轻松将PUE值从1.60降低到1.60。1.20。随着国内首款采用代表行业领先水平的3M电子冷媒技术的直浸式液冷服务器的发布,其高可用、高密度、超低PUE等优势必将撼动行业对数据中心节能降耗。技术意识。从成本分析来看,尽管曙光液冷服务器产品的制造成本较风冷服务器产品有所增加,但配套数据中心基础设施制造成本的下降抵消了部分成本增加,使得数据中心整体CapEX没有明显变化。然而,节能带来的OpEX显着降低,大大降低了数据中心的TCO。这种出色的经济表现是业界对这项革命性技术的认识背后的推动力。在中科曙光看来,服务器液冷技术势必带来服务器物理形态的变革,同时带来数据中心建设模式的变革,将对服务器结构产生深远影响。信息产业。
