当前位置: 首页 > 科技迭代

2024年看得见的未来:数据中心行业十大发展趋势

时间:2024-02-22 20:36:14 科技迭代

2023年,我们见证了人工智能(AI)的爆发,它正在改变人们工作、生活以及与技术交互的方式。

以ChatGPT为代表的生成式人工智能去年也因其重大进展和广泛应用而受到高度关注。

随着人工智能的不断发展和成熟,将有可能彻底改变从医疗保健、金融、制造到交通、娱乐等许多行业。

人工智能的巨大市场需求推动了新芯片和服务器技术的发展。

这些变化将对数据中心建设、电力需求、用水、供配电、冷却技术和架构带来颠覆性挑战。

如何应对这些挑战将成为新的一年业界高度关注的话题。

作为数据中心和关键行业应用领域基础设施建设和数字化服务的全球领导者,施耐德电气自2018年以来连续第七年在年初发布一系列洞察,开创了对行业趋势的前瞻解读。

并继续这样做。

引领未来变革方向,为数据中心行业注入强劲发展动力。

基于深刻的行业洞察和实践,施耐德电气致力于揭示新的一年数据中心行业将发生哪些变化、这些变化和趋势对数据中心运营商的价值和意义,以及施耐德电气的观点和价值主张关于这些行业的变化。

以下是施耐德电气全球数据中心研究中心对2024年发展趋势的预测。

趋势一:智能计算中心将引领数据中心建设。

过去十年,云计算一直是数据中心建设和发展的主要驱动力,目的是为社会提供数字化转型所需的通用计算能力。

然而,人工智能的爆发带来了对计算能力的巨大需求。

为了满足大型AI模型的训练和应用推理,我们需要建设大量的智能计算中心。

根据全球数据中心的功耗、GPU芯片和AI服务器的未来出货量,施耐德电气预计,目前全球智能计算中心的电力需求为4.5吉瓦,占数据中心总量57吉瓦的8%,预计到2028年将以26%-36%的复合年增长率增长,最终达到14.0吉瓦至18.7吉瓦,占93吉瓦总量的15%-20%。

这一增长率是传统数据中心年复合增长率(4%-10%)的2至3倍。

算力的分布也将从目前的集中部署(集中vs边缘,95%:5%)迁移到边缘(50%:50%),这意味着智能计算中心将引领数据中心建设的趋势。

根据工信部规划,2025年我国智能算力占比将达到35%,年均复合增长率超过30%。

施耐德电气认为,与传统数据中心相比,智能计算中心的建设需要在保证高能效和高可用性的同时,实现可持续发展,更具前瞻性,即尽量减少对环境的影响。

特别是需要提高适应性,以满足未来IT技术(高功耗芯片和服务器)的需求。

趋势二:人工智能将带动机柜功率密度突飞猛进。

机柜功率密度对数据中心的设计和成本影响很大,包括供配电、制冷、IT机房布局等。

一直是数据中心关注的设计参数。

一。

Uptime过去几年的研究表明,服务器机柜的功率密度正在稳步但缓慢地上升。

机柜平均功率密度一般小于6千瓦,大多数运营商没有超过20千瓦的机柜。

造成这一趋势的原因包括摩尔定律将芯片的热设计功耗保持在相对较低的水平(150瓦),以及高密度服务器通常部署在不同的机柜中以降低基础设施要求。

但AI的爆发将改变这一趋势。

施耐德电气研究发现,用于训练的AI机柜功率密度可高达30-100千瓦(取决于芯片类型和服务器配置)。

造成这种高密度的原因有很多,包括CPU/GPU的热设计功耗快速增加,CPU为200-400瓦,GPU为400-700瓦,未来还会进一步增加; AI服务器的功耗通常在10千瓦左右。

由于GPU并行工作,AI服务器需要紧凑地部署在集群中,以减少芯片和存储之间的网络延迟。

机柜功率密度的突然增加,将给数据中心物理基础设施的设计带来巨大的挑战。

趋势三:数据中心正在从风冷转向液冷。

风冷一直是数据中心IT机房制冷的主流方式。

如果设计得当,可以支持十几千瓦甚至更高的机柜功率密度。

但随着对AI训练性能的不断追求,开发人员不断增加芯片的热设计功耗,使得对这些芯片进行风冷变得不切实际。

虽然部分服务器厂商不断突破风冷技术的限制,通过重新设计芯片散热器、加大服务器风量和进出风温差、配置40-50千瓦风冷AI机柜等方式,但这将增加服务器的散热能力。

风扇的功耗。

呈指数级增长。

例如,AI服务器风扇可消耗高达25%的服务器功率,但传统服务器的典型值仅为8%。

施耐德电气认为,芯片冷却是液冷的主要驱动力,20千瓦机柜功率密度是风冷与液冷相对合理的分界线。

当AI机柜的功率密度超过这个值时,就应该考虑液冷服务器了。

与空气冷却相比,液体冷却还带来了许多好处,包括提高处理器可靠性和性能、提高能源效率、减少用水量、降低噪音水平等等。

目前,对于高密度AI服务器,供应商通常提供风冷和液冷解决方案,但对于下一代GPU,液冷将是唯一选择。

趋势四:智能计算中心更重视配电的安全性和可靠性。

对于传统数据中心来说,不同工作负载同时达到峰值的概率极低。

例如,典型大型数据中心的峰均比通常为1.5-2.0或更高。

然而,在智能计算中心,由于AI训练负载缺乏变化(峰均比接近1.0),工作负载可以在峰值功率下运行数小时、数天甚至数周。

其结果是上游大型断路器跳闸的可能性增加,并增加了停机风险。

同时,由于柜体功率密度的提高,需要采用额定电流值较高的断路器、柱头柜、小母线等。

随着电阻变小,能够通过的故障电流就变大,这意味着IT机房发生拉弧的风险也会增加。

确保该地区工人的安全是一个必须解决的难题。

施耐德电气建议在设计阶段使用仿真软件来评估电力系统的闪弧风险,分析可能产生的故障电流,并分析可靠性,以便为特定站点设计最佳解决方案。

这项研究必须分析中压开关设备直至机柜级别。

同时建议,如果新建数据中心IT机房的AI培训工作量超过60-70%,主断路器的尺寸需要根据下游馈线断路器的总和以及设计确定不再考虑联立系数。

趋势五:标准化将成为液冷进步的关键。

冷板液冷和浸没式液冷是数据中心液冷的两种主流方式。

选择哪种液冷方式以及如何实现快速部署一直是业界的热门话题。

随着越来越多的AI服务器采用冷板液冷,冷板液冷也与传统风冷系统更加兼容,受到众多数据中心运营商的青睐。

然而,服务器制造商对于液冷的设计方法多种多样。

快速接头、盲塞和汇流排的兼容性存在很多问题。

IT和基础设施之间的职责界限也变得模糊,这极大地限制了数据中心对液冷的接受程度。

和推广。

与冷板液冷相比,使用氟碳流体的浸没式液冷不仅价格相对昂贵,而且很多氟碳化合物是合成化学物质,对环境有害,正面临越来越多的行业法规和政策。

压力。

因此,除了使用油基冷却剂进行浸没式液体冷却外,可用的氟碳流体将会越来越少。

施耐德电气建议IT制造商提供更加标准化的设计方案,包括流体温度、压力、流量、设备接口等,并提供更加清晰的责任边界。

施耐德电气将在第一季度发布液冷白皮书,帮助数据中心更好地部署液冷技术。

趋势六:数据中心将更加关注WUE 水资源短缺正在成为许多地区的严重问题,了解和减少数据中心的用水量变得越来越重要。

此前,数据中心用水量没有受到重视的一个重要原因是,与电力消耗相比,水的成本通常可以忽略不计,许多数据中心甚至通过消耗更多的水来提高能源效率。

然而,数据中心用水问题引起了许多地方政府的关注,特别是在缺水地区。

政府正在出台各种政策来限制和优化数据中心的用水。

其中包括以WUE作为数据中心的设计指标,采用水电双控政策。

因此,减少用水量将是许多数据中心运营商未来关注的重点领域。

通过对数据中心行业用水量的研究,施耐德电气认为数据中心的WUE值在0.3-0.45L/kWh之间是一个比较优秀的值。

施耐德电气建议根据数据中心所在地区的水资源、气候条件和数据中心类型,找到电力和水消耗的平衡。

行业可以通过采用绝热蒸发、间接蒸发冷却、液体冷却等各种技术创新来减少直接用水量。

数据中心运营商应将WUE作为其可持续发展目标的一部分,报告用水量/节水量,并关注因用电引起的间接用水量。

趋势七:提高配电能力将成为智能计算中心的新需求。

在智能计算中心,随着机柜功率密度的增加以及AI机柜的集群部署,IT机房的配电面临着额定容量较小的挑战。

例如,过去一个300kW的配电模块可以支持数十甚至数百个机柜。

如今,同一个配电模块的功率甚至无法支持最低配置的NVIDIA DGX SuperPOD AI集群(单排10个机柜358千瓦,每个机柜36千瓦)。

配电模块尺寸太小。

使用多个配电模块不仅浪费IT空间,而且变得不切实际。

与单个大容量配电模块相比,多个配电模块还增加了成本。

回到配电本质,提高配电能力的主要手段是增加电流。

施耐德电气建议设计时应选择足够高规格的配电模块,以实现灵活部署,以适应未来的配电需求,从而支持至少一整排集群。

例如,在额定电压下,目前所有三种配电类型(PDU、RPP 和母线)的标准容量大小的 800 A 配电模块可提供 576 kW(降额后为 461 kW)。

终端配电可采用小母线,无需定制额定电流大于63A的机柜PDU。

在空间允许的情况下,可采用多台标准化机架式PDU作为过渡。

趋势八:人工智能赋能数据中心节能改造。

数据中心通过提供AI算力,推动人类社会向自动化、数字化、电气化等更加可持续的方向演进,赋能交通、制造、发电等领域,减少对环境的影响。

反过来,人工智能还可以实现数据中心能源优化,以减少其本身对环境的影响。

例如,可以利用人工智能和机器学习技术来控制数据中心的冷源系统和空调末端。

通过对历史数据的分析,可以实时监控数据中心内的气流分布,并可以根据数据中心IT负载的变化实时匹配合适的制冷能力。

输出。

通过自动调节终端精密空调和风扇的运行模式,实现动态按需制冷,减少热点,降低机房能耗和运维成本。

施耐德电气认为,人工智能技术在机房空调群控系统中的应用,可以实现对机房内部环境参数的智能监测和控制,并通过自动调节和优化,提高能源效率和系统可靠性,从而实现机房空调群控系统的智能化。

达到节能减排的目的。

随着人工智能技术的不断普及以及国家对数据中心节能降耗的持续要求,无论是新建还是改造项目,人工智能技术在数据中心空调群控系统中都将得到更多的关注和应用。

趋势九:配电系统的足迹将受到关注。

在数据中心设计中,追求IT机房面积比例最大化,即辅助设备机房占地面积最小化,一直是数据中心设计的主要诉求。

一。

对于传统数据中心来说,IT机房面积与配电房面积的比例通常在1.5:1左右。

随着AI驱动的IT机柜的致密化,越来越多的IT机房采用液冷。

液冷IT机房面积与配电房面积之比将反转至0.6:1左右。

此时,配电室的占地面积将受到数据中心设计者更多的关注,优化配电室的占地面积必将成为行业的一个发展方向。

施耐德电气认为,在更小的占地面积内增加配电及用电设备??的供电能力是有效途径之一。

例如,减少UPS系统的占地面积包括使用具有更高功率电源模块的模块化UPS,以实现兆瓦级的单柜功率。

同时,使用锂电池替代铅酸电池,可减少电池室占地面积40%。

-60%。

集中部署供配电设备(如撬装)还可以减少配电房占用面积;采用紧凑型模块化配电柜和共用柴油发电机等应急电源也是有效手段。

趋势十:数据中心储能系统价值日益凸显。

UPS系统在实现数据中心的电能质量管理和不间断供电方面一直发挥着重要作用。

由于数据中心运营商面临着提高可持续性和财务绩效,同时维持或增强其供电和配电系统的可靠性和弹性的压力,新能源存储和发电技术提供了新的可能性,但也挑战了传统的数据中心运营模式和电气架构提出了挑战。

电池和燃料电池等分布式能源技术可以有效地产生或储存清洁能源。

储能系统除了提供传统的UPS系统功能外,还可以管理用电需求高峰,通过在用电高峰时释放储存的能量,实现调峰、增加负荷;它还可以通过削峰填谷来降低数据中心的电力成本。

能源成本优化;同时参与电网的需求响应,实现创收。

施耐德电气认为,要实现数据中心的可持续发展,需要降低能源成本、充分利用搁浅资产、减少对柴油发电机的依赖、保持独立于电网的业务弹性。

这些需求为数据中心采用储能系统奠定了基础。

提供更有效的应用场景和价值。

随着锂电池储能系统价格的不断下降以及电气架构的创新,数据中心可以通过微电网系统对能源供应提供更大的控制和自主权;在没有微电网的情况下,他们也可以部署存储系统以获得竞争优势。

进入2024年,数据中心行业的重点将从传统数据中心建设转向智能计算中心建设。

关键是通过不断的技术创新,实现智能计算中心的可持续发展,适应下一代IT技术。

上述对新兴趋势的预测来自于20世纪90年代成立的施耐德电气全球数据中心研究中心。

科研中心始终以“探索数据中心行业技术和发展趋势、倡导最佳实践”为团队使命。

通过发布易于理解的白皮书和权衡工具,帮助数据中心用户提高可用性和优化能源效率,为数据中心的可靠性赋能。

持续开发并最大化数据中心的商业价值。

截至2023年,施耐德电气研究中心团队已发布超过230篇白皮书,每年下载量超过40万次;有30种称重工具,每年有超过20,000名用户在线使用。

所有白皮书和权衡工具均免费供全行业学习和使用,这在推动数据中心行业发展的同时,充分印证了施耐德电气作为数据中心行业思想领袖的地位。