当前位置: 首页 > 科技观察

强大性能+极致应用,宝德AI服务器推动智能化发展

时间:2023-03-15 18:42:14 科技观察

如今,由于云计算、AI等技术的出现,正在推动数据中心设计的结构变革,CPU+GPU加速计算的平台已经成为主流。未来随着这些技术的不断普及,会有越来越多的行业和企业有类似的需求。宝德早就意识到了这一趋势,率先推出了AI系列服务器产品,以提升AI训练和AI推理性能。日前,NVIDIA发布的安培架构的第三代TensorCore带来了巨大的性能飞跃,能够将AI训练时间从数周缩短至数小时,显着加快推理速度,无疑助推了整个人工智能行业。发展。  板首款DGXA100交付应用,赋能客户业务  DGXA100是适用于所有AI负载的通用系统。企业提供前所未有的计算密度、性能和灵活性。与上一代基于Volta的V100计算卡相比,基于Ampere的A100核心实现了INT8推理性能和FP32训练性能提升20倍,FP64高性能计算提升2.5倍,是目前最大的历史上的进步。  DGXA100系统集成了8个新的NVIDIAA100TensorCoreGPU,具有用于训练最大AI数据集的320GB内存,以及最新的高速NVIDIAMellanox?HDR200Gbps互连。凭借全新DGX的巨大性能飞跃,企业可以在面对指数级增长的AI模型和数据时保持领先。  Board通过对本地客户业务的深入洞察,以及对实际使用中系统性能需求的深刻理解,为客户提供定制化的DGXA100端到端解决方案。近日,博伊德首款DGXA100成功交付,再次证明了博伊德在助力企业智能化转型方面的超强实力。  宝德首款DGXA100交付并应用于AI领域。客户为视频产品及系统解决方案提供商,利用AI技术进行机器视觉、人脸识别、体温检测等应用,涉及大量数据。在合作过程中,我们发现客户的深度学习系统已经不能满足训练需求。为此,宝德基于DGXA100的优异性能打造了定制化的解决方案。通过现场应用,客户深度学习系统的GPU能力在原有基础上得到进一步提升。GPU集群可以并发处理两倍的AI训练任务,内存带宽也可以达到1.6TB/s,互联能力更快,扩展性更强。  当宝德AI服务器“遇上”NVIDIAA100GPU  NVIDIAA100GPU中的第三代TensorCore核心更快、更灵活、更易用,最高性能可达1秒同时同时,通过新一代NVSwitch技术,GPU之间的通信性能翻倍,最高可达600GB/S。更强的计算性能和更高的GPU间互联带宽,可以带来更高的AI计算效率,支持用户进行更大数据规模、更复杂模型的AI训练。此外,NVIDIAA100GPU拥有40GBHBM2显存,显存带宽提升70%,达到1.6TB/s,可承载更大规模的深度学习模型训练。  得益于敏捷强大的产品设计开发能力,宝德在业内较早实现了对NVIDIA?安培架构GPU的快速跟进,即将推出多款基于NVIDIA?安培架构的AI服务器产品。  新一代产品兼容性更好,拓扑更灵活:PCIe插槽支持GEN4,支持4到10个PCIe版本的NVIDIAA100,最多8个NVMe驱动器,最大内存可以支持DDR4-3200,这是AI客户提供专为应用场景的极致创新和优化而设计的AI计算平台,进一步丰富宝德的AI服务器产品阵容,更好地应对当前海量数据爆炸和复杂模型带来的巨大计算挑战。同时,我们与AI客户紧密合作,帮助他们在语音、语义、图像、视频、搜索等方面实现AI应用性能的数量级提升。