最近,三星推出了首款开源软件解决方案——可扩展内存开发套件(SMDK),专门为支持Compute Express Link(CXL)内存平台而设计。
这是继今年5月三星推出首款支持CXL标准的DDR5内存后,对CXL技术发展的又一次推动。
三星电子内存产品规划团队副总裁 Cheolmin Park 在新闻稿中表示:“为了让数据中心和企业系统顺利运行像 CXL 这样的下一代内存解决方案,有必要开发相应的软件。
” BusinessKorea此前报道称,随着亚马逊、Facebook、微软和谷歌等美国科技巨头将数据中心投资增加约40%,韩国DRAM巨头三星电子的服务器芯片市场受益。
此外,三星还表示,由于对数据中心和新应用的投资增加,5G和数据中心对存储芯片的需求将会增加。
在这种情况下,布局数据中心市场也就不足为奇了,但CXL为何能成为数据中心市场的宠儿呢?互联网技术布局对于服务器芯片厂商意味着什么?互联网技术对数据中心的重要性随着数据中心市场的发展,以Intel、NVIDIA、AMD为代表的芯片巨头公司开始布局数据中心芯片。
在此过程中,以CPU闻名的Intel和AMD开始向GPU领域扩张,而以GPU崛起的Nvidia也开始涉足CPU市场。
基于CPU、GPU等服务器芯片的特性,它们在数据中心中也扮演着不同的角色——CPU适用于广泛的工作负载,适合处理从串行计算到数据库操作的工作类型; GPU 通常用作并行处理器来处理越来越多的应用程序。
而这也意味着大量的数据需要在CPU和GPU之间高速传输。
但事实是,根据企业存储科技发表的文章,在2021持久内存+计算存储峰会上题为《Futureof Persistent Memory, DRAM and SSD Form Factors Aligned with New SystemArchitectures》的演讲中指出,从2012年到2019年,服务器CPU核心数(从8核)到 64 核)增加了 8 倍,而 Pin 引脚数量(从 LGA-2011 到 4094/4189)和内存通道数(从 4 到 8)仅增加了 2 倍,PCIe 通道(从 40 到 64,如果AMD是根据双路每个CPU的支持情况来计算的)甚至不到2倍。
换句话说,I/O跟不上计算密度的增长。
因此,与数据中心相关的数据传输技术也引起了服务器芯片厂商的关注。
DIGITIMES Research分析师翁树廷曾表示,为了提高两种芯片之间的数据传输效率,Intel、AMD和NVIDIA数据中心CPU和GPU产品线重点关注高速互连接口的创新。
为此,这些芯片巨头厂商纷纷在互联网技术上展开新的探索。
NVIDIA开发并推出了NVLink,它采用点对点结构和串行传输用于CPU和GPU之间的连接,也可用于多个NVIDIA图形处理器之间的互连。
当NVIDIA提出这种“新”互连方式时,IBM给予了他们很大的支持。
据相关报道称,IBM在其基于Power8+微架构的Power处理器中添加了NVlink 1.0。
这一举措使得 P100 可以通过 NVlink 直接连接到 CPU,而无需通过 PCIe。
与此同时,AMD还推出了名为Infinity Fabric的互连架构,这是一项基于HyperTransport的技术,由AMD于2016年宣布。
用于CPU之间、GPU之间、CPU与GPU之间的互连。
互联。
根据AMD的演示,其最新的Infinity Fabric 3.0已经可以与EPYC CPU和Radeon协同工作,并且每个EPYC CPU搭配4组Radeon Instinct加速卡都没有问题。
CXL技术是Intel倡导的用于数据中心的互连技术。
这原本是英特尔的一个内部项目。
他们希望基于PCIe开发的CXL能够消除CPU与设备、CPU与存储之间的计算密集型任务。
转移工作负载瓶颈,创建可支持加速器、I/O、缓存和内存的接口,为下一代高性能计算和数据中心提供服务。
简单来说,CXL的作用就是方便异构处理器之间的内存调用,让数据交换更快。
2019年3月13日,英特尔携手阿里巴巴、思科、戴尔EMC、Facebook、谷歌、HPE、华为、微软宣布成立Compute Express Link(CXL)开放合作联盟,旨在共同开发CXL开放互联技术并制定相应的规范,促进新兴应用模型的性能突破,同时支持数据中心加速器和其他高速增强功能的开放生态系统。
同年7月,随着AMD宣布加入CXL开放合作联盟,我们看到CXL技术正在被越来越多的厂商认可。
CXL的布局规划从CXL开放合作联盟的发展动态,我们可以看到芯片厂商是如何推广CXL技术的——在CXL开放合作联盟成立之初,CXL 1.0标准也同时推出,它制定了I/O协议、允许设备之间共享内存的内存协议以及保持一致性的接口标准。
接口规格方面,CXL兼容PCIe 5.0,最高带宽为128GB/s,几乎可以满足当时所有的数据传输需求。
2020年11月,CXL联盟发布了CXL 2.0规范。
2.0规范增加了对内存池的支持,以最大限度地提高内存利用率,并提供持久内存的标准化管理,使其能够与DDR同时运行。
这可以释放 DDR 以供其他用途。
并且CXL 2.0规范还向下兼容CXL 1.1和CXL 1.0。
除了联盟发布的趋势外,从个别厂商的动作来看,致力于CXL发展的Rambus也展开了战略布局。
他们针对数据中心推出了“CXL内存互连(CXL Memory Interconnect)计划”。
同时,今年6月,Rambus还宣布完成对AnalogX和PLDA的收购。
Rambus在新闻稿中表示,收购PLDA和AnalogX为我们提供了关键产品和专业知识,增强了公司的服务器能力。
这种在内存接口芯片领域的领先地位进一步加快了为下一代数据中心提供创新 CXL 互连解决方案的路线图。
此外,作为CXL联盟的早期成员,Astera Labs推出了一款解决以数据为中心的应用系统性能瓶颈的新产品,全新Aries Compute Express Link(CXL 2.0)智能重定时器(PT5161LX、PT5081LX)产品系列它是CXL.io的低延迟连接解决方??案,也是其在新领域的第一个解决方案。
当英特尔牵头成立CXL开放合作联盟时,服务器芯片市场迫在眉睫的竞争被认为是与英伟达的NVLink技术展开竞争。
在这种竞争下,我们看到围绕数据中心芯片市场的争夺战即将爆发。
众所周知,CPU、GPU、FPGA等芯片都将在数据中心市场发挥巨大作用。
为此,英特尔、AMD和英伟达都补充了自己的“短板”。
在此过程中发生的巨额并购(包括Intel收购Aletra、AMD计划收购Xilinx、Nvidia计划收购Arm),都被业界视为他们决战数据中心市场的布局。
以英特尔和英伟达为例。
从产品上市进度来看,擅长CPU的Intel去年推出了首款面向数据中心的独立显卡产品; NVIDIA 于今年 4 月推出了基于 Arm 的数据中心。
CPU,据英伟达称,该芯片是为大规模神经网络工作负载而设计的,预计将在 2023 年用于英伟达的产品中。
因为它们围绕多计算架构芯片展开竞争。
作为这些芯片之间沟通的桥梁,互连技术的竞争或许也预示着它们在服务器芯片市场的争夺已经进入决胜阶段。
根据Intel在2021年热门芯片上的演讲,市场实际上会在2022年看到CXL 1.0/1.1设备。
从NVIDIA的角度来看,其推出的基于Arm架构的数据中心CPU采用了第四代NVLink互连技术。
据了解,这项技术可以将Grace CPU和NVDIA GPU之间的连接速度提高到高达900GB/s,使得总带宽比当前最先进的服务器高出30倍。
除了CPU、GPU、FPGA领域的竞争外,这些芯片厂商还认为DPU在数据中心市场将有巨大潜力。
互连技术对于DPU同样重要。
以CXL为例,福布斯曾在一篇文章中提到,工作在PCIe物理层的CXL将为内存提供新的功能。
与 NVMe-oF、DPU 和特殊处理器相结合,可提供新的可组合内存和存储架构以及计算存储。
从这一点来看,互联网技术已经成为数据中心发展中不可忽视的领域。
同时,我们也认识到围绕服务器芯片市场的竞争不再局限于芯片本身的性能。
它们也在向更多领域延伸(包括各大芯片厂商对封装的探索)。
这些在这方面的突破也可能成为他们未来服务器芯片市场竞争的利剑。
写在最后上面,我们提到第一代CXL是向32Gbps PCIe 5.0看齐的。
不久前,PCI-SIG确认PCIe 6.0规范0.7版本已正式向其成员发布。
PCI-SIG组织已经批准了PCIe 5.0标准,并计划在2021年发布完整的PCIe 6.0规范。
9月,据外媒报道,PCI-SIG和CXL联盟宣布签署了一份MOU(谅解备忘录) 。
该谅解备忘录的目的是在两个组织之间建立一个沟通系统,以便在共同感兴趣的领域实现一致的联合信息传递和营销。
因此,我们可以推测CXL 2.0将成为PCIe 6.0进步的关键驱动因素。
与此同时,被认为与CXL平起平坐的NVLink也在不断升级。
从这两个阵营的竞争情况来看,或许我们可以相信,当前互联网技术的竞争将影响他们未来在数据中心市场的地位。
可以预见,随着数据中心逐渐接近大规模落地的时间点,这些芯片厂商之间的竞争也进入了激烈的阶段。