数据中心是科技巨头正常运转的核心部分,可以帮助这些科技公司更好地传输、加速、显示、计算、存储数据信息.数据中心一般是一个大型仓库,主要存放服务器和其他联网的计算机设备。这些设备在将大部分数据存储在互联网上的同时,也为云计算提供了必要的计算能力。 但数据中心往往伴随着大量的热量,其能源使用密度可比普通办公楼高出一百倍以上。 防止服务器过热是数据中心运营成本的主要组成部分。因此,该领域的大公司,包括Facebook、微软和谷歌,都在寻找不同的方法来节省冷却成本。 数据中心的前世今生 自然冷却是最早的数据中心散热方案之一。它利用外界空气温度与设备之间的温差来为设备降温。但是,这种冷却方式受地域限制。局限性,数据中心通常使用某种形式的空调来冷却IT设备——风冷。 风冷由于成本低,发展迅速。但随着设备的不断增多,服务器越来越密集,风冷逐渐无法满足散热需求。可用性、绿色节能和动态冷却成为主要的创新方向。其中,液冷技术因其出色的性能受到众多厂商的青睐。 液冷是指用液体代替空气来带走CPU、内存条、芯片组、扩展卡等设备在运行过程中产生的热量。目前业界主要的液冷技术有冷板式、喷淋式和浸没式三种。 因此,国内外主流厂商都在大力推进液冷技术的研究。例如,FacebookInc.正在与NortekAirSolutions合作推出一种新的间接冷却系统,即StatePoint液体冷却(SPLC)解决方案。 Facebook Facebook主要依靠地理位置来为数据中心降温。Facebook位于瑞典的数据中心NodePole距离北极圈仅一步之遥。这里终年气温较低,冬季平均气温低至零下20度。这样的地理环境非常有利于数据中心的运维。较低的温度也有利于服务器的散热,一定程度上降低了维护成本。Facebook利用这一环境特性,将室外的冷空气抽入中央大楼,服务器产生的大量热空气与进来的冷空气循环交换,形成自然降温过程。图:Facebook在瑞典建立的数据中心NodePole 此外,Facebook在爱尔兰也有一个数据中心。爱尔兰位于欧洲的西北角,西濒大西洋,东临英格兰。它是北美和欧洲之间的中转站。爱尔兰地处较高纬度,全年气温较低,在6至20摄氏度之间。爱尔兰还有两条通往美国的海底电缆,还有11条横跨英格兰的海底电缆。可以帮助企业实现自动故障转移。如果美国出现网络中断,爱尔兰的数据中心可以继续为Facebook提供相应的服务。 微软 2018年6月,微软在苏格兰奥克尼群岛海岸线外海域部署了一个潜艇式的水下数据中心。微软在苏格兰附近的奥克尼群岛海岸沉没了一艘40英尺长的船,该船位于一个拥有12个机架和864台服务器的数据中心。微软表示,它可以在无需维护的情况下存储数据和处理信息长达五年。图:微软将数据中心沉入海底 微软选择建设水下数据中心,以提高往往缺乏基础设施的近水地区的网络速度。另一方面,流媒体和游戏需要更强大的处理基础设施才能连接到互联网。微软英国公司首席执行官辛迪罗斯周三表示:“世界上近一半的人口生活在大片水域附近,让数据中心更接近数十亿互联网用户将确保更快、更流畅的网络浏览、视频流和游戏,同时企业可以享受由人工智能驱动的技术。” 利用海水和湖水降温的不只是微软,中国的阿里巴巴利用千岛湖给服务器降温,这也使得其年均PUE低于1.3,最低可达1.17。 Google 几年前,谷歌通过其子公司DeepMind开始研究如何使用机器学习来更好地冷却其数据中心。但当时,系统只是提出建议,由人类操作员决定是否实施。 最近,据外媒报道,谷歌利用人工智能降低其数据中心的运营成本。最新的DeepMind构建的模型足够有用,可以让人工智能驱动的系统完全控制环境冷却。新的冷却系统已经在放置在谷歌的一些数据中心。每5分钟,系统会轮询数据中心的数千个传感器,并使用该信息做出最佳行动。当然,这里有各种制衡,所以机会谷歌的一个数据中心被这种机制削弱了。 DeepMind与大多数机器学习模型一样,随着收集的数据越来越多,这个模型会变得更好。与数据中心的历史能源使用量相比,它现在平均节省了30%的能源。 值得注意的是,谷歌显然是在努力省钱,但在很多方面,该公司也将此视为推广自家机器学习服务的一种方式。毕竟,在数据中心工作的东西也应该在大型办公楼里工作。“从长远来看,我们相信有可能将这项技术应用到其他工业领域,以帮助更大规模地应对气候变化,”DeepMind员工在一份声明中写道。在边缘计算等技术的推动下,数据中心的运营成本正在逐步降低。科技巨头之间的博弈,不仅需要技术和产品的创新,更需要一场持久的消耗战。谁笑的时间最长,谁就笑到最后。
