当前位置: 首页 > 科技迭代

MLPerf 3.0最新排名,戴尔AI和边缘服务器创历史最佳成绩!

时间:2024-02-22 20:20:40 科技迭代

北美时间4月5日,全球权威AI基准MLPerf 3.0最新结果正式公布。

戴尔新一代AI和边缘计算服务器取得了有史以来最好的成绩:  数据中心赛道,戴尔新一代GPU服务器PowerEdge XE9680获得3个第一和9个第二名;在  边缘计算赛道上,戴尔PowerEdge XR系列边缘计算服务器获得了10个第一名。

  恭喜戴尔!   MLPerf 由 ML Commons Alliance 组织。

它是全球最知名、参与人数最多的人工智能计算基准测试,涵盖训练和推理两个领域。

MLPerf精选人工智能各个热门领域的经典模型,在满足技术规范(如训练精度、延迟等)的前提下,对各大厂商的硬件、软件和服务的训练和推理性能提供公正的评估。

  最新公布的AI推理基准测试MLPerf Inference v3.0,包括图像分类ResNet-50、目标检测RetinaNet、医学图像3D U-Net、语音识别RNN-T、自然语言处理BERT-Large、推荐系统DLRM 六个模型赛道包含来自全球 25 个制造商的 6700 多条性能数据和 2400 条性能和功耗数据。

  MLPerf Inference v3.0的AI业务场景  在本次MLPerf Inference v3.0测试中,戴尔提交了27种不同的服务器配置,总共255个测试数据。

产品涵盖PowerEdge XE9680、R750xa、XR7620、XR5610等型号。

测试的GPU型号包括NVIDIA A30、L4、T4、A2以及高通AI加速卡等,具有广泛的选型参考。

  数据中心赛道性能  在MLPerf Inference最受关注的数据中心基准测试中(Datacenter close),戴尔16G PowerEdge服务器XE9680首次亮相就取得了优异的成绩。

  8卡配置的PowerEdge XE9680参加了12项测试,所有测试成绩均排名前2,其中包括RetinaNet Server(目标检测)、RetinaNet Offine(目标检测)和RNN-T Server(语音识别)。

最好的成绩是所有项目赛道的第一名。

  与之前的MLPerf Inference v2.1相比,PowerEdge XE9680将戴尔在每个项目中的最佳成绩分别提高了3倍至8.4倍。

  边缘计算赛道上的表现  边缘计算是MLPerf重点关注的另一类AI推理应用场景。

与数据中心追求极致算力不同,边缘计算场景对计算设备部署的环境要求更高。

多元化也更加注重计算设备的功耗和成本。

因此,戴尔在边缘AI计算领域的重点是在满足AI计算吞吐量和时延性能要求的同时,提供更高性价比和性能/功耗的AI计算解决方案。

  在本次MLPerf Inference v3.0边缘封闭功耗测试(主要衡量边缘AI计算的性能功耗比)中,戴尔XR系列边缘计算优化服务器在全部14项测试得分中取得了10项最佳成绩。

其中,PowerEdge XR5610边缘计算优化服务器搭配NVIDIA最新的L4 GPU,在九个项目中获得第一名。

PowerEdge XR4000 搭配 NVIDIA A2 GPU 在 BERT 99 Offline 项目中取得了最佳成绩。

  * Dell XR5610参与的9个项目分别是ResNet Single Stream、Resnet Multi Stream、RetinaNet Single Stream、RetinaNet Offline、3D-UNet 99 Single Stream、3D-UNet 99 Offline、3D-UNet 99.9 Offline、RNN- T 单流、BERT-99 单流。

  NVIDIA L4是一款单宽GPU加速卡,专为AI视频和生成式AI用例而设计,与上一代GPU相比,生成式AI性能提高了2.7倍。

Dell PowerEdge服务器将于今年第一季度开始提供L4选择支持。

   以AI Inference v3.0 Edge测试项目中的图像分类ResNet-50和自然语言处理BERT-99为例,L4的推理计算性能分别达到T4的2.1倍和2.13倍。

与A10相比,L4的大部分规格都非常接近A10,但功耗却不到一半,同时实现了大量的成本节省。

L4的发布将成为未来AI推理计算极具竞争力的GPU选择。

  目前ChatGPT带动了全球对大型AI模型以及基于大型AI模型的AIGC(人工智能内容生成)的关注和投资。

与之前的小型AI模型相比,以ChatGPT为代表的大规模预训练模型的参数规模增加了100倍到1000倍。

训练如此庞大的AI模型需要更大的AI计算集群和更多的训练数据集。

  以OpenAI的GPT为例。

GPT-3 有 1750 亿个参数。

2020 年 GPT-3 发布时,使用了超过 10,000 个 NVIDIA GPU 卡来训练模型。

根据第三方计算,如果用1024块A800 GPU来训练GPT-3,仍然需要一个多月的时间。

  随着AIGC时代的到来,人工智能产业化对AI算力的需求将被带到一个新的水平。

戴尔PowerEdge XE9680在此次MLPerf Inference v3.0测试中取得了优异的成绩,专为复杂计算和AI/ML/DL以及HPC密集型工作负载而构建,可实现大规模机器学习的快速开发、培训和部署,例如聊天GPT。

模型,推动更多AIGC场景快速落地。

  此外,AI与边缘的融合是未来AI计算的趋势之一。

越来越多的AI计算负载,特别是AI推理计算,将出现在边缘。

边缘IT设备的部署环境差异很大。

有时很难拥有与核心数据中心一样完整的机房环境,可能面临更加复杂、恶劣的设备运行环境。

  戴尔XR系列服务器对高温、低温、海拔、防尘、抗震运行环境有更强的适应能力,并通过电信和海事行业标准。

机箱深度通常只有通用机架服务器的一半左右,机器外观更加紧凑。

  此次参与AI Inference v3.0 Edge项目测试的XR系列服务器是戴尔科技集团针对边缘计算场景专门设计和优化的服务器。