当前位置: 首页 > 科技赋能

Graphcore IPU-M2000 在首次基准测试中显着优于 GPU

时间:2024-05-20 02:31:48 科技赋能

布里斯托尔,12 月 9 日 - Graphcore 推出 IPU-M 和垂直可扩展的 IPU-POD64,其最新的 AI 计算系统获得了第一组性能基准测试。

在各种流行模型中,Graphcore 技术在训练和推理方面均显着优于 NVIDIA 的 A(基于 DGX)。

亮点包括: 训练 EfficientNet-B4:吞吐量提高 18 倍 ResNeXt-:吞吐量提高 3.7 倍 Yao-Large:与 DGX A 相比,IPU-POD64 上的训练时间缩短 5.3 倍(与双 DGX 系统相比,缩短 2.6 倍) 推理 · LSTM:吞吐量增加10倍以上,时延更低·EfficientNet-B0:吞吐量提升60倍/时延降低16倍以上ResNeXt-:吞吐量提升40倍/时延降低10倍时代·BERT-大:实现3.4 x 吞吐量增加且延迟更低。

Benchmark包括BERT-Large(基于Transformer的自然语言处理模型)在IPU-POD64的所有64个处理器上运行的结果。

Yao-Large 的训练时间比最新的 NVIDIA DGX-A 快 5.3 倍(比双 DGX 设置快 2.6 倍以上),这一结果凸显了 Graphcore IPU-POD 横向扩展解决方案在数据中心的优势, Poplar 软件堆栈能够管理利用并行工作的多个处理器的复杂工作负载。

Graphcore 软件高级副总裁 Matt Fyles 在评论测试结果时表示:“这套全面的基准测试表明,Graphcore 的 IPU-M 和 IPU-POD64 在许多流行型号上的性能优于 GPU。

”此类新模型的基准特别具有启发性,因为它们表明人工智能的发展方向越来越倾向于 IPU 的专用架构,而不是传统的图形处理器设计。

“客户需要能够处理稀疏性,才能有效地运行大型工作负载。

可扩展模型的计算系统,这是 Graphcore IPU 所擅长的,随着客户需求的这种趋势,差距只会继续扩大。

》Graphcore为阿里云HALO定制的代码在GitHub正式开源。

Graphcore是阿里云HALO的合作伙伴之一。

为阿里云HALO定制开发的代码odla_PopArt已在HALO的GitHub上开源。

详情请另外参见MLCommons除了发布综合基准测试之外,Graphcore 还宣布加入了新成立的 MLPerf 子公司 MLCommons,并成为 MLCommons 的成员,并将于今年开始参与 MLCommons 比较基准测试。

请参阅 MLCommons 的成立公告。

PyTorch 和 Poplar 1.4 Graphcore 用户现在可以利用 Poplar SDK 1.4,包括完整的 PyTorch 支持,PyTorch 已成为从事尖端 AI 研究的开发人员的首选框架,并已获得大量快速支持。

PapersWithCode 的最新数据显示,47% 的已发表论文及相关代码使用 PyTorch 框架(2019 年 9 月)。

额外的 PyTorch 支持,加上 Poplar 现有的 TensorFlow 支持,意味着绝大多数 AI 应用程序现在可以轻松部署在 Graphcore 系统上。

与 Poplar 软件堆栈的其他元素一样,Graphcore 正在将其用于 IPU 的 PyTorch 接口库开源,让社区能够为 PyTorch 做出贡献并加速其开发。