当前位置: 首页 > 科技观察

基于NVIDIA Ampere架构的GPU正式发布,AI训练和推理性能提高20倍

时间:2023-03-16 01:43:02 科技观察

基于NVIDIA安培架构的GPU正式发布,AI训练和推理性能提升20倍,推动经济模式向智能经济转型。面对新技术的快速应用和数据总量的快速增长,数据中心在计算能力、存储、网络等方面都面临着巨大的挑战。这已成为企业在数字化转型过程中需要解决的首要问题。  在今年5月14日举行的GTC大会上,NVIDIA正式宣布首款基于NVIDIAAmpere架构的GPU——NVIDIAA100已经全面投产并交付给全球客户,这也意味着NVIDIA推出的AI和边缘计算Ampere架构正式投入生产环境。  NVIDIAAmpere架构采用7nm工艺,性能提升20%  在GTC之前,NVIDIAAmpere架构的一些技术参数开始陆续流出,比如采用7nm制程,架构优化升级,更高的能效比等等等等。GTC之后,Ampere架构的所有技术优势都展现得淋漓尽致。资料显示,NVIDIAAmpere架构采用全新7nm制造工艺,包含超过540亿个晶体管,是全球最大的7nm处理器。此外,通过优化自身架构,Ampere不仅拥有更高的性能(NVIDIA发布的A100GPU在AI训练和推理方面的性能比上一代提升20倍),而且能耗比更高,适用于更多场景。.  从技术规格来看,NVIDIAA100GPU采用NVIDIAAmpere架构,采用第三代TensorCore核心,加入NVIDIA专为AI研发的全新TF32。AI性能在精度上提高20倍。此外,TensorCore内核现在支持FP64精度,与上一代相比,可为HPC应用提供高达2.5倍的计算能力。  此外,A100GPU采用了全新的技术功能:多实例GPU-MIG,可以将单个A100GPU分成最多7个独立的GPU,为不同规模的工作提供不同的计算能力,从而实现最佳利用和投资回报最大化。此外,A100GPU还采用了第三代NVIDIANVLink,将GPU之间的高速连接加倍,实现服务器的高效性能扩展。结构化稀疏技术可以将性能提高一倍。  正是在上述技术的帮助下,NVIDIAA100成为了AI训练和推理以及科学模拟、对话式AI、推荐系统、基因组学、高性能数据分析、地震建模等要求最高的工作负载和财务预测。理想的选择。  除了核心架构的升级,安培架构的A100在软件层面也进行了优化。据了解,NVIDIA已经发布了多个软件栈更新,让应用开发者能够充分利用A100GPU创新的性能。这些更新包括用于加速图形、仿真和人工智能的50多个新版本的CUDA-X库;CUDA11;NVIDIAJarvis,一个多模式对话式人工智能服务框架;NVIDIAMerlin,深度推荐应用框架;以及NVIDIAHPCSDK,其中包含编译器、库和工具,可帮助HPC开发人员调试和优化A100代码。  针对各种生产环境,Ampere进一步拓展应用场景  在不断提升产品性能的同时,NVIDIA也在积极拓展更多应用场景,将Ampere架构应用到更多场景中。据记者了解,除了满足AI训练和推理的需求,采用Ampere架构的GPU还被NVIDIA用于边缘计算、超级计算机等领域,并取得了不错的效果。  在边缘计算应用场景上,NVIDIA推出了EGXA100,这是首款基于NVIDIA安培架构的边缘AI产品。企业可以将EGXA100添加到他们的服务器,以实时处理和保护来自边缘传感器的数据。海量流数据。  据介绍,EGXA100结合了NVIDIAAmpere架构的计算性能与NVIDIAMellanoxConnectX-6DxSmartNIC的网络加速和关键安全功能,可以将标准和专用的边缘服务器转变为极其强大的安全云原生人工智能超级计算机为各种计算密集型工作负载提供最大的性能飞跃,例如在边缘运行的人工智能推理和5G应用程序,使EGXA100能够处理来自摄像头和其他物联网传感器的大量实时数据流,从而获得更快的洞察力并改进业务效率。  数据显示,在NVIDIAMellanoxConnectX-6Dx板载网卡的帮助下,EGXA100每秒可以接收高达200Gb的数据,并直接发送到GPU内存进行AI或5G信号处理。借助NVIDIAMellanox精准时钟调度5G无线数据包传输技术(5Tfor5G)EGXA100作为云原生软件定义加速器,可以应对时延最为敏感的5G应用。(例如商店、医院和工厂车间)做出智能实时决策提供了高性能AI和5G平台。  除了边缘计算场景,MVIDIA还推出了采用Ampere架构的DGXA100,构建了全球领先的AI系统,以前所未有的速度帮助企业解决复杂问题。推理AI算力的交付带来了强大的弹性和灵活性。  去年,NVIDIA基于多个DGX系统的组合构建了DGXSuperPOD。这台超级计算机在性能上排名世界前20,而成本和能耗远低于一般超级计算机。现在,NVIDIA已经揭开了第二代SuperPOD的序幕。该产品不仅提供了创纪录的性能,而且能够在短短三周内完成部署。它的出现,使得构建世界级AI超算集群所需的时间不再需要几个月的时间。  据介绍,SuperPOD基于NVIDIADGXA100系统和NVIDIAMellanox网络架构,证明单一平台可以将世界上最复杂的语言理解模型的处理时间从数周缩短至不到一个小时。  除了以上两种场景,它在其他领域也得到了广泛的应用。比如在阿里云、AWS、百度智能云、谷歌云、微软Azure、甲骨文、腾讯云上,都在计划提供基于A100的服务。  正如NVIDIA创始人兼CEO黄仁勋在GTC上所说,物联网与人工智能的融合开启了一场“万物智能”的革命。正如手机行业通过智能手机为用户提供智能服务一样,大型行业现在也可以为用户提供智能互联的产品和服务。NVIDIAEGX边缘人工智能平台将标准服务器转变为小型、云原生、安全的人工智能数据中心。借助我们的人工智能应用框架,企业可以构建从智能零售到机器人工厂再到自动化呼叫中心的各种人工智能服务。【原创稿件,合作网站转载请注明原作者和出处为.com】