当前位置: 首页 > 科技观察

如何应对全球数据中心用电量的增加?

时间:2023-03-17 21:46:19 科技观察

科技已经彻底融入人们的生活,提高了全世界的生活质量。预计ICT市场将呈指数级增长,但这种进步是有代价的。预计ICT行业将继续在全球范围内消耗越来越多的电力。因此,许多媒体报道了世界各地数据中心的运营状况及其消耗的电量。良好的开端令人鼓舞,因为许多运营商已采取重大措施来降低数据中心用电量的增长率。数据中心功耗通常支持数据中心的计算能力和冷却需求。它的目的是促进更多的节能实践,因此提出了PUE(PowerUsePowerEfficiency)的概念。全球最大的超大规模组织开放计算项目(OCP)正在努力实现数据中心PUE接近1,这是数据中心用电的最佳结果。然而,边缘计算的采用正在增加,它的普及无疑会影响数据中心的功耗,因为它不适合超大规模数据中心。然而,实现完美的PUE需要付出高昂的代价。要实现更低的PUE需要做什么?一些解决方案包括在寒冷地区运营数据中心,这些数据中心会产生热量来为建筑物供暖,利用外部凉爽的空气来冷却IT设备,以及设计在环境温度下运行服务器以消除机房空调的应用。但是,这仍然不是一个好的解决方案。众所周知的摩尔定律将在2023年结束。随着英特尔在其10纳米制造工厂中苦苦挣扎,自上一次晶体管密度发生重大变化以来,其影响已经显现两年多了。直到几年前,这些越来越快的CPU都专用于一项服务。由于此CPU的运行速度快于服务所需的速度,因此通常会导致CPU和内存利用率不足。潜在的成本降低使虚拟化和容器的显着增长成为可能。但是,运行这些管理程序也会消耗处理能力,因为这是一种开销。虚拟化并不是什么新鲜事,它在很多年前就已在IBM大型机上使用,它对x86服务器的介绍相对较新。一如既往,数据中心成功的很大一部分是管理其资源。确保有足够的交货,但不要浪费太多钱。很多IT人需要不断地问自己,瓶颈在哪里?瓶颈是实际的纯计算吗?它是否被存储、内存控制器甚至网络减慢了速度?卸载CPU执行的一些I/O工作是一件好事,因为它释放了CPU以专注于计算。延迟当然是一个问题。延迟是推动边缘计算采用的因素之一,人工智能和机器学习也是如此,它们受到最小延迟的影响。但是企业能否确定你的网页是在2ms还是3ms交付?我们是否需要花费大量的公司和个人精力和努力来实现高效完美的延迟?为什么服务器通常包括数据中心的VGA和USB端口?而且因为BIOS需要它们存在,但人们很少在服务器上使用它们。这几天有了很大的发展,也许是时候来一场革命了?是时候重新考虑是否需要剥离所有这些不必要的组件,并且必须优先考虑高吞吐量。如果有许多IT系统以更低的功耗运行,具有更高的网络、存储和内存带宽,它们将提供比传统服务器架构更高的并行吞吐量。更快的时钟速度无疑会带来更高的性能,但是会消耗多少功率呢?它根本不是线性的,而是指数的。以整体较低频率运行的CPU意味着更少的功率,因此更少的热量。这意味着更多的服务器可以安装在更小的空间内,需要更少的空调功率。然而,现在同一空间中有更多的服务器可用,因此单个线程可能不会那么快,但对于给定的空间和功耗,整体吞吐量更高。寻求较低的PUE值可能不是正确的选择。相反,应该考虑每单位功率可以完成多少工作;这是效率的真正衡量标准。这将支持所需的更改,以便数据中心可以开始解决降低功耗所需的工作。计算架构的变化和向低功耗处理器的转变将导致现代数据中心的功耗水平发生巨大而革命性的变化。