近日,在谷歌I/O开发者大会上,谷歌除了发布令人眼花缭乱的新手机、AR眼镜、全家桶软件升级外,还为全球机器学习玩家提供带来了“一鸣惊人”。一年前发布的TPUv4已经正式部署在谷歌云机器学习集群上。这款机器学习“大杀器”已经正式用于谷歌云最新机器学习集群的预览版。谷歌表示,它将成为世界上最大的公共机器学习中心。目前,除了最新的谷歌云预览版外,谷歌其他SOTA级别的产品,如搜索引擎、视频网站Youtube等,都使用了TPU处理器(即张量处理单元)。划时代的TPUv4,碾压v3TPUv4是谷歌在去年的I/O大会上推出的一款芯片。在当时的开发者大会上,谷歌CEOSundarPichai用了1分42秒介绍了这款芯片。TPUv4是谷歌第四代定制AI芯片,运算能力是上一代v3的两倍。与上一代相比,性能也提升了十倍以上。可以说TPUv4芯片为谷歌云平台增加了一个非常关键的环节。机器学习的训练速度得到了显着提升。从量化上来说,4096个v4TPU,也就是一个pod芯片,可以提供超过exaflop(百亿次浮点运算)的AI算力。或许以上数据不够直观。相比之下,如果一个TPUpod的计算能力达到每秒100亿次浮点计算的水平,相当于1000万台笔记本电脑的总和。以前,获得1exaflop(每秒1018次浮点运算)通常需要构建自定义超级计算机。TPU是谷歌首批定制芯片之一,当包括微软在内的其他公司决定为其机器学习服务采用更灵活的FPGA时,谷歌很早就将赌注押在了它们身上。谷歌已经部署了许多这样的计算机,在他们的数据中心有几十个TPUv4pod。此外,最重要的是,这些谷歌数据中心将使用90%或接近90%的无碳能源运行。看来TPUv4不仅功能强大,而且环保。GoogleCloud的最新预览!在最近的GoogleI/O开发者大会上发布的GoogleCloud最新机器学习集群的预览版是该大会的亮点之一。谷歌表示,“客户对机器学习能力、性能和规模的需求一直在快速增长。为了支持人工智能的下一代基础性进步,我们推出了谷歌云机器学习集群。”其中包括CloudTPUv4Pod的预览版。”谷歌毫不客气地说,“这是世界上最快、最高效、最可持续的机器学习基础设施中心。”在CloudTPUv4Pods的支持下,研究人员和开发人员可以训练越来越复杂的模型,以支持众多算法系统。对于例如,NLP(大规模自然语言处理)、推荐系统和计算机视觉算法等。据谷歌称,CloudTPUv4Pods集群的峰值聚合性能高达9exaflops,是世界上最大的公开可用机器学习中心在计算能力方面。而且不要忘记我上面所说的,不仅具有强大的计算能力,而且对环境友好。谷歌数据中心的马特伊斯特伍德说,“我们最近对2,000名IT从业者进行了调查。我们发现基础设施计算能力不足往往是AI项目失败的根本原因。”“这正是我们要推出CloudTPUv4Pods的原因。再加上我们可以实现90%的运营由无碳能源供电,这表明我们不仅在提高计算能力水平,而且在关注可持续发展。”这其实很好理解。再强大的算力,如果能耗过大,也不是长久之计。既然我们已经讨论了可持续性,那么让我们多谈谈集群的能源效率。除了上述清洁能源供应外,谷歌数据中心的电源使用效率(PUE)评级为1.10。而且,TPUv4芯片最大每瓦功率的peakFlop是上一代的三倍。去年推出该芯片时,谷歌承诺在去年年底推出。当时谷歌授权了一些AI巨头,包括Cohere、LGAIResearchCenter、Meta、Salesforce等。谷歌表示用户喜欢新芯片的性能和可扩展性,TPUv4的快速互连和优化的软件堆栈满足了他们的需求.客户可以通过芯片优秀的架构搭建自己的交互开发环境。而且,由于TPUv4的灵活性,这款芯片也可以完美适配客户使用的框架,包括JAX、Pytorch、TensorFlow等,这些特性让研究人员不断推动AI的发展,训练大规模SOTA机器学习模型。几年前,谷歌还成立了TRC,即TPUResearchCloud项目,为机器学习从业者提供了极强的算力支持。借助谷歌推出的芯片架构,开发者可以实现自己的各种奇思妙想。比如有人用AI写了一本波斯诗集,有人用计算机视觉和行为遗传学研究睡眠和运动引起的疲劳之间的区别,等等。谷歌和人工智能研究中心副总裁JeffDean表示,“CloudTPUv4是一个里程碑式的产品。我们相信有了它,我们可以在未来与全球的机器学习开发者更紧密地合作。让我们更多地合作,让人工智能造福全世界。”
