警报!ChatGPT爆发下的能源消耗危机,是数据中心运营商面临的巨大挑战热潮,风头一时不变。微软率先宣布100亿美元入股OpenAI,随后亚马逊和美国版《头条之旅》BuzzFeed宣布将在日常工作中启用ChatGPT。同时,百度也宣布将于3月推出ChatGPT聊天机器人“中文版”。在多家科技公司的推波助澜下,ChatGPT瞬间引起了全球的关注。数据显示,亚马逊部署的机器人数量正在快速增长,达到每天1000台左右。此外,Facebook母公司Meta还计划在2023年追加投资40亿至50亿美元建设数据中心,预计全部用于人工智能。IBMCEO克里希纳表示,人工智能预计到2030年将为全球经济贡献16万亿美元。随着ChatGPT的普及,2023年,巨头们或将在人工智能领域掀起新一轮激战。但是,ChatGPT-3在预测下一个词时,需要进行多次推理计算,因此会占用大量的资源,也比较耗电。然而,数据中心基础设施扩展以支持云计算、视频流媒体和5G网络的爆发式增长,其GPU和CPU架构无法有效运行以满足迫在眉睫的计算需求,这给超大规模数据中心运营商带来了巨大挑战。巨大的挑战。GPT3.5训练采用微软专门打造的AI计算系统,由10000个V100GPU组成的高性能网络集群,总计算功耗约为3640PF-days(即每秒计算1千万亿次,是计算3640天所必需的)。如此大规模、长时间的GPU集群训练任务,对网络互联基础的性能、可靠性和成本提出了极高的要求。例如,Meta宣布暂停在全球范围内扩建数据中心,以重新配置这些服务器群,以满足人工智能的数据处理需求。ChatGPT的OpenAI创建者去年11月推出的人工智能平台的数据处理需求,如果没有搭便车微软即将升级到其Azure云平台,就无法继续运行。支持这种数字化转型的数据中心基础设施将像人脑一样被组织成两个半球或叶,其中一个叶需要比另一个更坚固。一个半球将服务于所谓的“训练”,即处理多达300B数据点以创建ChatGPT生成的单词沙拉所需的计算能力。训练襟翼需要强大的计算能力和最先进的GPU半导体,但目前支持云计算服务和5G网络的数据中心集群几乎不需要连接。同时,专注于“训练”每个AI平台的基础设施将产生巨大的电力需求,要求数据中心位于千兆瓦级可再生能源附近,安装新的液体冷却系统,并重新设计备用电源和发电机系统,以及其他新的设计功能。在AI平台大脑的另一半球,被称为“推理”模式的更高功能的数字基础设施支持交互式“生成”平台,这些平台在输入问题或命令后几秒钟内处理查询,进入建模数据库,并响应令人信服的人类语法。而当今的超连接数据中心网络,例如北美最大的数据中心集群,北弗吉尼亚州的“数据中心”也拥有最广泛的光纤网络,以适应“推理”树叶的下一级连接需求人工智能大脑,但这些设施也需要升级以满足所需的巨大处理能力,并且它们需要更靠近变电站。此外,据研究机构数据显示,数据中心已成为全球最大的能源消耗国,占总用电量的比重将从2017年的3%上升至2025年的4.5%。以中国为例,2030年,全国运营的数据中心用电量预计将超过4000亿千瓦时,占全国用电量的4%。因此,即使是数字产品,也需要能量来开发和消耗,ChatGPT也不例外。据估计,机器学习工作中的推理处理占计算功耗的80-90%。自推出以来,碳排放量已超过814.61吨。根据专业机构的计算,假设托管在微软Azure云上的ChatGPT每天有100万用户咨询(在特定响应时间和词汇量下,每天约29167小时),按最高功率407W(瓦特)计算A100GPU,日碳排放量达到3.82吨,月碳排放量超过100吨。如今,ChatGPT日访问量超过1000万,每月实际碳排放量远超100吨。此外,训练这样一个拥有1750亿个参数的大型语言模型,需要数万个CPU/GPU每天24小时输入数据,耗电量约1287MWh,排放二氧化碳超过552吨。从这些大型语言模型的碳排放量来看,ChatGPT的前身GPT-3的碳排放量最大。据悉,美国人均每年产生16.4吨碳排放,丹麦人均每年产生11吨碳排放。因此,ChatGPT的模型训练排放的碳比50个丹麦人每年排放的还要多。云计算提供商也认识到数据中心使用大量电力,并已采取措施提高效率,例如在北极建设和运营数据中心,以利用可再生能源和自然冷却条件。然而,这还不足以满足人工智能应用爆发式增长的需求。美国劳伦斯伯克利国家实验室在一项研究中发现,在过去20年中,数据中心效率的提高一直在控制能源消耗的增长,但研究表明,目前的能效措施可能不足以满足未来数据中心的需求。AI行业现在正处于一个关键的拐点。生成式AI、图像识别和数据分析方面的技术进步揭示了机器学习的独特联系和用途,但首先需要构建能够满足这种需求的技术解决方案,因为根据Gartner的预测,除非更具可持续性,否则AI将到2025年消耗的能源将超过人类活动。
