3月18日——今天,全球AI盛会GTC(GPU技术大会)正式开幕。
联想集团与NVIDIA宣布合作推出全新混合人工智能解决方案。
帮助企业和云提供商获得在人工智能时代取得成功所需的关键加速计算能力,将人工智能从概念变为现实。
与此同时,在大规模高效增强人工智能工作负载方面,联想宣布了其ThinkSystem人工智能产品组合扩展的行业变革里程碑,其中包括两款全新强大的8路NVIDIA GPU系统,旨在为提供海量的计算能力和无与伦比的能源效率,加速人工智能的实施。
专为生成式 AI、自然语言处理 (NLP) 和大型语言模型 (LLM) 开发而设计,为 NVIDIA HGX AI 计算平台的上市提供动力。
全新联想ThinkSystem SRa V3是一款5U系统,采用Lenovo Neptune液冷技术,电源使用效率(PUE)为高达 1.1。
通过使用 CPU 和 GPU 的直接水冷以及 NVIDIA NVSwitch 技术,系统可以在不达到任何热限制的情况下保持最大性能。
十多年来,联想业界领先的海王星直接水冷解决方案通过循环利用温水来冷却数据中心系统,使客户实现比传统风冷降低40%的功耗和3.5倍的散热性能提升系统。
更高。
根据 Uptime Institute 的年度全球数据中心调查,作为用于确定数据中心能源效率的行业指标,PUE 和功耗是最受关注的可持续发展方法之一。
由于液体冷却提供了比空气更节能的替代方案,因此系统可以在消耗更少的能源的同时实现更高的持续性能。
它还允许 ThinkSystem SRa 安装在密集的 5U 封装中,有助于节省宝贵的数据中心空间。
此外,全新联想ThinkSystem SRa V3是一款风冷双插槽系统,通过英特尔处理器和NVIDIA GPU为复杂人工智能提供最大加速。
高度加速的系统提供强大的计算能力,并使用行业标准的 19 英寸服务器机架,允许密集的硬件配置,最大限度地提高效率,同时避免过多的空间使用。
联想还展示了全新PG8A0N,这是专为AI设计的终极1U节点。
客户可以在联想的 NVIDIA 认证系统组合上运行 NVIDIA AI Enterprise,这是一个端到端云原生软件平台,用于开发和部署生产级 AI 应用程序。
客户可以在联想的企业级基础设施上运行 NVIDIA AI Enterprise 中包含的 NVIDIA NIM 推理微服务,对 NVIDIA 及其生态系统的流行 AI 模型进行高性能推理。
该产品组合包括联想的XClarity系统管理软件,可提高企业基础设施部署的效率,以及联想的智能计算平台(LiCO),可简化人工智能模型开发和训练以及HPC工作中集群计算资源的使用。
加载。
该产品组合还支持第四代和第五代英特尔至强可扩展处理器,并为未来更高功率的 GPU 提供热空间。
联合设计的 NVIDIA MGX 解决方案:为 CSP 和企业带来定制 AI、NVIDIA Omniverse 和高性能计算 从工作站到云支持,联想是 NVIDIA OVX 和 NVIDIA Omniverse 开发平台的设计、工程和支持的领先提供商。
为了帮助企业快速构建和部署广泛的专用 AI、HPC 和 Omniverse 应用程序,联想与 NVIDIA 合作,使用 NVIDIA MGX 模块化参考设计更快地构建加速模型。
利用这些设计,云服务提供商可以经济高效地为 AI 和 Omniverse 工作负载大规模提供加速计算,从而更快地接收自定义模型。
打包这些系统将使科学家和研究人员能够通过加速处理 TB 数据的复杂 AI 和 HPC 应用程序来解决世界上一些最具挑战性的问题。
采用 NVIDIA MGX 模块化参考服务器设计的全新联想产品包括: 全新联想 HGN - MGX 1U — 一款采用 Lenovo Neptune 直接液冷技术的开放标准服务器,可降低功耗,同时支持最高性能的 GPU。
全新联想 HGN - MGX 2U - 高度模块化、GPU 优化的系统,采用风冷并支持行业标准机架。
全新联想 HGX V3 - MGX 4U - 该系统在风冷环境中支持高达 8 W NVIDIA GPU,非常适合 NVIDIA Omniverse 和 AI 工作负载。
联想是 NVIDIAMGX 4U 的设计合作伙伴。
全新 Lenovo HRN - MGX 2U - 一款高性能 Arm CPU 服务器,具有多核以及存储和前端 IO 的灵活性。