AMD今日宣布了一项新战略,在服务器计算中使用硬件和开源软件套件加速进入机器智能新时代,从而大大提高深度学习性能和效率,同时使工作负载更容易实施.新的Radeon?Instinct加速器将为客户提供强大的基于GPU的深度学习推理和训练解决方案。与这款新硬件产品一起,AMD宣布推出MIOpen,这是一个用于GPU加速器的免费开源库,用于实现高性能机器智能,为AMDROCm软件提供全新优化的深度学习框架,并为持续的机器智能的进化。根据。大容量存储变得越来越便宜,与传感器相关的数据和用户生成的内容呈指数级增长,所有这些都推动了全球数以千兆字节计的数据。机器智能算法和相关高性能GPU的最新进展可在数据处理和理解方面实现数量级加速,从而近乎实时地产生洞察力。RadeonInstinct是机器智能开放软件生态系统的蓝图,有助于加速推理洞察和算法训练。AMD总裁兼首席执行官LisaSu博士表示:“RadeonInstinct是一款高性能GPU加速器,结合来自MIOpen和ROCm的免费开源软件,极大地加快了机器智能发展的步伐。结合高性能性能计算和图形功能连同我们多代路线图的实力,我们是唯一一家拥有GPU和x86芯片专业知识的公司,可以满足数据中心的广泛需求并帮助推动机器智能的持续发展。”在上周举行的AMD技术峰会上,来自1026实验室、英业达、超微、多伦多大学CHIME射电望远镜项目和Xilinx的客户和合作伙伴对RadeonInstinct的发布赞不绝口,讨论了他们如何利用AMD机器智能和深度学习技术,以及它们如何从RadeonInstinct中获益。RadeonInstinct采用被动散热,符合SR-IOV(SingleRootI/OVirtualization)行业标准的AMDMultiGPU(MxGPU)硬件虚拟化技术,拥有超大基址寄存器和64位PCIe寻址功能,支持多GPU运行点对点。RadeonInstinctAcceleratorsforMachineIntelligenceApplications:RadeonInstinctMI6加速器基于流行的PolarisGPU架构,被动冷却,针对工作/时间/功耗进行了优化,150W板载功率,FP16峰值性能达到5.7TFLOPS,板载16GBGPU显存。RadeonInstinctMI8加速器采用高性能、高能效的“斐济”NanoGPU打造小型HPC和推理加速器,FP16峰值性能8.2TFLOPS,板卡功耗低于175瓦,并且4GB高带宽内存(HBM)。RadeonInstinctMI25加速器将使用AMD的下一代高性能VegaGPU架构,专为深度学习训练而设计,并针对整体解决时间进行了优化各种开源解决方案为RadeonInstinct硬件提供动力:MIOpenGPU加速库:帮助实现高性能机器智能,免费开源的MIOpenGPU加速库计划于2017年第一季度推出,为卷积、池化、激活函数、归一化和张量格式等标准例程提供GPU优化。ROCm深度学习框架:优化ROCm平台以加速Caffe、Torch7和Tensorflow*等流行的深度学习框架,通过ROCm的丰富集成让程序员专注于训练神经网络而不是低级性能调优。预计ROCm将作为机器智能问题集持续发展的基础。除了开放的编译器和语言运行时,它还有望拥有专门用于线性代数和张量领域的编译器。AMD还投资开发超越当今PCIeGen3标准的互连技术,以进一步提高未来机器智能应用程序的性能。AMD正在合作开发多种开放式高性能I/O标准,这些标准支持广泛的服务器CPU架构生态系统,包括X86、OpenPOWER和ARMAArch64。AMD是CCIX、Gen-Z和OpenCAPI的创始成员,致力于为RadeonInstinct开发未来的25Gbit/sphi加速器和机架级互连。
