NVIDIA创始人与CEO黄仁勋于11月18日发布了构建GPU加速Arm服务器的参考设计,带来了GPU 加速对超级计算机的支持已扩展到快速增长的新平台。
此举得到了业界的广泛支持。
他在丹佛举行的全球超级计算大会(SC19)上发表演讲。
在演讲中,他宣布微软在Azure云计算平台上构建了全球最大的GPU加速云超级计算机NDv2超大规模实例。
此外,他还推出了 NVIDIA Magnum IO。
这套 GPU 加速的 I/O 和存储软件解决了人工智能、数据科学和高性能计算工作负载的数据传输瓶颈。
在两个小时的演讲中,黄仁勋除了发布上述内容外,还谈到了行业的最新动态,详细描述了高性能计算的广阔前景。
高性能计算全面拓展 作为全球超算行业规模最大的盛会,本次SC19大会开幕式现场座无虚席。
开幕式上,黄仁勋对现场受邀的研究人员和技术人员表示:“高性能计算领域正在向各个方向同时拓展。
事实上,高性能计算无处不在,比如超级计算中心、云计算、云计算等。
”推动高性能计算全面扩展的因素包括:基于大型传感器阵列的高性能流计算;利用边缘计算进行更复杂的筛选;利用AI来运行高性能计算;黄仁勋表示:“这一切都在发生巨大的变化。
”美国国家航空航天局 (NASA) 模拟了一架双层飞机大小的飞机,以每小时 0 英里的速度飞行,并在七分钟内安全着陆。
黄仁勋表示,模拟以随机访问方式传输数TB的数据,相当于DVD的数据存储容量。
“为此,我们将在超级计算机旁边安装一个超级计算分析仪器。
”拓展高性能计算领域黄仁勋将计算科学家称为当今时代的达芬奇。
在演讲的一开始,他详细介绍了加速计算如何协助当今计算科学家的工作。
他解释说,第一台人工智能超级计算机已经推动了聚变能、引力波等领域的科学研究。
与此同时,加速计算正在帮助百亿亿级系统解决一些世界上最具挑战性的问题。
例如,劳伦斯伯克利国家实验室(LBNL)关于识别极端天气模式的研究;橡树岭国家实验室(Oak Ridge National Laboratory,ORNL)关于阿片类药物成瘾的基因组学研究; 、太平洋西北国家实验室(PNNL)和汉福德布朗大学领导的核废料修复项目;以及橡树岭国家实验室和纽约州立大学石溪分校 (York at Stony Brook, SBU)。
与此同时,人工智能的应用领域也日益广泛。
本月早些时候,美国邮政局宣布将使用 NVIDIA 的端到端 AI 技术。
作为全球最大的邮政服务机构,它每天处理近 5 亿件邮件。
黄仁勋表示:“这正是流式AI计算机最擅长的应用场景。
”上个月,黄仁勋宣布 NVIDIA 正在与爱立信、微软、红帽等公司合作,利用 NVIDIA EGX 边缘超级计算平台为企业和 5G 电信网络的边缘 AI 提供动力。
高性能计算的下一步将是使用大量软件定义的传感器来优先将数据发送到可编程边缘计算机;然后将最相关的数据发送到超级计算机;最后,超级计算机将从大量实时数据中提取数据。
获得见解。
携手 Arm:GPU 加速让新兴高性能计算架构更快 今天的发布对于 Arm 社区来说是一个里程碑。
如今,Arm处理器架构在智能手机和物联网设备中随处可见,早已成为全球最流行的处理器架构。
黄仁勋预测,Arm 目前拥有超过 1 亿台计算设备;未来几年,这个数字将突破1万亿。
NVIDIA 正在迅速为这个蓬勃发展的生态系统带来各种高性能计算工具。
黄仁勋表示:“我们一直在与这里业界的每个人合作。
这个行业太神奇了,每个人都在争先恐后地成长。
这将成为一个伟大的生态系统,几乎所有可以在高性能计算中运行的工作都将是应该的。
”能够在任何CPU上运行。
”他补充说,30 个应用程序已经启动并运行。
黄仁勋表示,全球多个顶级超级计算中心已开始测试GPU加速的Arm计算系统,其中包括美国橡树岭国家实验室和桑迪亚国家实验室、英国布里斯托大学、日本科学技术研究所等。
研究所。
他还表示,NVIDIA的GPU加速Arm服务器参考设计包括硬件和软件基础模块,目前得到高性能计算和Arm生态系统关键成员的支持。
在 Arm 生态系统中,NVIDIA 正在与 Arm、Ampere、富士通和 Marvell 合作。
NVIDIA 还与 HPE 及其 Cray 公司合作。
许多高性能计算软件公司已开始使用 NVIDIA CUDA-X 库,将基于 GPU 的管理和监控工具引入 Arm 生态系统。
今年早些时候,NVIDIA 宣布推出适用于 Arm 的 CUDA-X 软件平台。
随后,NVIDIA首次发布了参考平台。
正如之前所承诺的,NVIDIA 正在提供其 Arm 兼容软件开发套件的预览版(可在此处下载)。
此版本包括 NVIDIA CUDA-X 库和加速计算开发工具。
微软将 GPU 超级计算机引入 Azure 黄仁勋宣布,世界上最快的超级计算机之一的 GPU 超级计算机 NDv2 现已在 Microsoft Azure 上可用,为高性能计算研究人员和其他人员提供前所未有的实时访问。
GPU 计算能力。
“现在你可以打开一个实例,在容器中选择一个......堆栈,在Azure上启动它,然后你就可以进行科学研究。
这真的很酷,”他说。
Azure NDv2 实例旨在满足专为要求苛刻的 AI 和高性能计算应用程序而构建的要求,可扩展至通过 Mellanox InfiniBand 互连的多达多个 NVIDIA VTensor Core GPU。
研究人员和其他人员有史以来第一次可以按需租用整个人工智能超级计算机,并与需要数月时间才能部署的大型本地超级计算机的功能相匹配。
黄仁勋解释说,需要快速解决方案的人工智能研究人员可以快速启动多个 Azure NDv2 实例,并在几个小时内完成复杂对话式人工智能模型的训练。
例如,微软和NVIDIA的工程师一直在对集群的预发布版本进行实验。
他们使用 64 个 NDv2 实例在大约三个小时内训练了 BERT 会话 AI 模型。
Magnum IO 软件 为了帮助 AI 研究人员和数据科学家将数据移动时间从几小时缩短到几分钟,黄仁勋先生还发布了 NVIDIA Magnum IO 软件套件。
Mangum IO 可将多服务器、多 GPU 计算节点上的数据处理速度提高高达 20 倍,解决执行财务分析、气候建模和其他复杂的高性能工作负载时面临的瓶颈。
黄仁勋表示:“这个领域将充满创新,我们将投入大量精力帮助每个人将信息进出系统。
” NVIDIA GPUDirect Storage 是 Magnum IO 的一项关键功能。
它提供了GPU内存和存储之间的直接数据路径,让数据绕过CPU,在GPU、存储和网络设备提供的“开放高速公路”上快速行驶。
Magnum IO 是 NVIDIA 与许多网络和存储行业领导者密切合作的成果,其中包括:DataDirect Networks、Excelero、IBM、Mellanox 和 WekaIO。