几年前,电商大促、春晚红包等每一个重大节点,宕机和消防几乎从不缺席。您在购物时经常会遇到或听到无法提交订单或无法付款的情况。然而,近两年却是另一番景象:即便是在618大促等流量高峰期,大部分电商平台都顶住了高并发压力,顺利度过了年中狂欢节,唯独推广时间从一天延长到一段时间,算力的快速增长也是重要原因之一。可见算力正在进入“基础设施”时代。中国信息通信研究院一份研究报告披露:2016年至2020年,中国算力规模年均增长42%,其中2020年总算力达到135EFlops,仍处于领先地位保持55%的高增速。然而,计算能力的快速增长也带来了新的问题。01计算与散热的“零和博弈”对于很多人来说,“计算”已经不再是一个新概念。每一次打开“绿码”、每一次视频会议、每一次搜索点击……都离不开数据中心的处理和计算。“计算”在日常生活中的无缝渗透,勾勒出丰富多彩的数字世界。但是,随着计算量的增加,功耗也随之增加。以全球最著名的预训练大型模型“GPT-3”为例。GPT-3每次训练都会消耗巨大的算力,消耗约19万度电,产生85万吨二氧化碳。Monster”。如果把电用于“计算”本身,或许并不是什么坏消息。毕竟数字经济时代有一个广为人知的经济学解释,那就是在计算能力上投入的每一都会带动3-4元的经济产出,“成本效益”远高于传统农牧业和工业生产,但现实情况并不乐观。根据开元证券研究所统计结果,散热系统在数据中心能耗分布中的占比高达40%,换言之,数据中心每消耗一度电,只有一半用于“计算”,其余为浪费在散热、照明等方面,计算和散热几乎陷入了一场零和博弈,计算量越大,散热耗电量越大。没有足够的能量来支撑散热,将直接影响数据中心的性能、密度和可靠性。于是,业界开始流行“PUE”的概念,即电源使用效率,用来衡量数据中心消耗的全部能源与IT负载消耗的能源的比值,被认为作为评价数据中心能效的重要指标。PUE值越接近1,非IT设备能耗越低,数据中心能效等级越高。目前国内大型数据中心平均PUE值为1.55,超大型数据中心平均PUE值仅为1.46。2020年,国内数据中心用电量已超过2000亿千瓦时,占总用电量的2.7%。预计2023年数据中心能耗将超过2500亿千瓦时,2030年将超过4000亿千瓦时,用电占比也将上升至3.7%。从这个角度来看,解决数据中心的能耗问题已经是摆在案头的棘手挑战。02被推上神坛的“液冷”技术传统的数据中心散热方案主要是“风冷”,以空气为制冷剂,将服务器主板、CPU等散发的热量传递到散热器模块,然后使用风扇这也是冷却系统消耗数据中心近一半功率的主要原因。当PUE值受到严格限制,绿色计算逐渐流行,80年代尝试的“液冷”技术迅速成为上下游产业的新焦点。其实,“液冷”技术的原理并不复杂。简单来说,就是以矿物油、氟化液等绝缘低沸点冷却液为制冷剂,通过热交换将服务器的热量排出,并演化出冷板式、喷淋式、浸没式等散热方案。液冷看似只是换了一种“冷媒”,却为数据中心的节能降耗带来了诸多可能:比如存在风冷导热过程复杂、散热量大等痛点阻力小,换热效率低。它限制了数据中心的计算能力密度,并且经常产生巨大的噪声。相比之下,液冷技术所呈现出的节能、降噪、节省空间等特点并不缺乏吸引力。一个直接的例子是“普渡大学的贝尔集群”,10个机架的戴尔“PowerEdgeC6525”服务器直接浸入冷却液中,运行时产生的热量直接被冷却液吸收,PUE可降至低至1.05散热所需功耗较传统方案降低90%以上。再比如风冷如果想提高散热能力,最“简单粗暴”的方法就是提高风扇转速。但是这种方式会带走热量,同时在风扇和硬盘之间形成一个大的涡流,而这种不规则的涡流可能会影响硬盘的读写能力,甚至会导致硬盘死机。因磁头振动而报废。液冷技术几乎完美避免了这些不利因素。由于液冷方案是一个相对静止的环境,可以有效降低硬件产品因空气、灰尘、振动等原因引起的故障率,数据中心始终在低温环境下运行,因此大大提高了内部电子器件的使用寿命成分。可见,液冷技术的出现和应用,让计算和散热在很大程度上走出了“囚徒困境”。风冷降维的综合优势,也让液冷技术受到了很多人的青睐。坛。不过,和很多新技术一样,液冷方案也有天然的短板:冷却液的价格与茅台相当,无形中增加了散热的硬成本;液冷技术对数据中心机房环境要求严格,改造成本高;液冷技术降低了PUE,但在运行成本上却有着无法言说的优势……虽然液冷在各种散热方案中是无可争议的佼佼者,但也要考虑实际因素。03戴尔科技给出最优方案今年年初,国家发改委等部委启动了“东算西算”工程,将算力需求从东部转移到西部。除了东西部电力资源不平衡的考虑外,另一个最重要的因素就是自然冷源的利用。有机构测算,在现有散热方案下,以工业平均电价0.5元/千瓦时计算,数据中心温度每降低1℃,一个配备10万台服务器的标准数据中心机房可每天节省9.6。电费1万元。这无疑向外界发出了一个明确的信号:液冷的价格居高不下,短时间内不可能完全替代风冷。现阶段仍然需要的是多元化的散热方案。挑战其实留给了大大小小的IT厂商:是理想化的Allin液冷散热,还是植根于市场实际需求,推出多种方案?在服务器市场牢牢占据一席之地的戴尔科技已经给出了自己的答案。当外界普遍将风冷送入“冷宫”时,戴尔并没有放弃“风冷散热”的技术创新。在采用最佳计算流体动力学CFD气流模拟技术优化系统设计的同时,推出了数据新风(FreshAir)系统,将温暖的排风从中心循环至主空调,结合最新的送风解决方案先进的软件控制算法,刷新了风冷能耗“成绩单”。例如新一代戴尔PowerEdge系列产品R750,通过合理的散热布局减少过多的气流,服务器散热能效较上一代提升60%,大大降低了服务器的能耗。工作过程,同时避免服务器过热。停机和业务中断的尴尬。DellPowerEdgeR750采用英特尔?第三代至强?可扩展处理器,最高可达40核/80线程,在内核、缓存、内存、I/O等方面进行了深度优化,释放出可扩展性能的巨大潜力。数据中心。即便是“传统”的风冷散热,戴尔的FreshAir硬件散热方案也让外界看到了新的可能性:在冬天为建筑设施提供“免费”的热量,在冬季直接将外部空气吸入数据中心暖月,通过减少冷水机组运行时间等方式进一步降低服务器的运营管理成本,PUE值也有可能降至1.05的水平。针对CPU功率超过150w的需求,戴尔科技根据不同场景提供冷板式和浸入式两种液冷技术:前者对应的例子是“Triton液冷系统”,将冷却液直接放入进入服务器底座为CPU散热,不仅带来最高的散热效率,还减少了冷却液的用量;“PowerEdgeC6520”是浸没式技术的典型代表,以闭环水流取代典型的金属散热器,使服务器能够同时支持大功率处理器和更高的机架密度。戴尔科技的回答并不复杂。与过度依赖某项技术不同,戴尔科技的策略是根据客户需求提供不同的散热解决方案,然后利用统一的能源管理软件“OpenManagePowerCenter”来增加客户对服务器功耗的需求。可视化、可控化,进而帮助客户低成本、自动化、智能化地处理各种能源消耗事件,找到适合自己的最优解决方案。据赛迪顾问预测,2025年中国浸没式液冷数据中心市场规模将超过526亿元,市场份额有望超过40%。从行业角度来看,液冷的快速普及是个好消息。然而,对于数据中心运营商而言,绿色计算是不可回避的优先事项。现有数据中心需要提高散热能力,在性能和散热之间找到新的平衡点;对于一些追求“性价比”的用户来说,降低PUE是有渠道的。液冷不应该只有一种,适合自己的产品和解决方案。因此,戴尔科技深入市场需求,为不同用户提供多样化的散热解决方案,应对能耗焦虑,让您的数据中心运营更安心。
