DataCentergiantsAnnounceNewHigh-SpeedInterconnectSpecification是针对芯片间通信的高速互连规范。数据中心领域的一群大玩家联手开发了另一种旨在连接处理器芯片的高速互连规范。该规范称为ComputeExpressLink(CXL),旨在将数据中心CPU插入加速器芯片。共同制定该规范的联盟成员包括英特尔、微软、谷歌、Facebook、HPE、思科、戴尔-EMC、华为和阿里巴巴。为什么没有像IBM、AMD、Nvidia、Xilinx或Marvell/Cavium这样的ARM服务器供应商?他们有自己的基于PCIe的规范:CCIX。行业组包括AMD、Arm、Mellanox、Qualcomm、Xilinx和华为。还有IBM主导的OpenCAPI规范。2016年,多家公司成立了OpenCAPI联盟:AMD、Google、IBM、Mellanox、Micron、Nvidia、HPE、DellEMC和Xilinx。因此,其中几家公司对冲了他们的赌注,而其他公司则各自选择了自己的立场。你们不喜欢技术的统一吗?什么是计算高速链(CXL)?英特尔在一份声明中表示,该联盟将CXL技术描述为“保持CPU内存空间与连接设备内存之间的距离”。内存一致性和资源共享提高了性能,降低了软件堆栈的复杂性,并降低了总体系统成本。这使用户可以只关注目标工作负载,而不是加速器中冗余的内存管理硬件。”CXL基于第五代PCIExpress物理和电气协议,使用x16通道为CXL提供高达128GB/s的传输速度。它具有三种接口协议:用于发送命令和接收状态更新的I/O协议,允许主机处理器和加速器有效共享物理RAM的内存协议,以及用于资源共享的数据一致性接口。它基本上做的是让CPU、SOC、GPU和FPGA直接通信和共享内存。它现在的工作方式是,如果CPU想要向FPGA发送一些东西,它必须通过以太网端口将它发送出去,这要慢得多,并且在接收芯片接收它之前要经过大约六个接口。因此,CXL将允许直接、快速的芯片到芯片通信,随着数据中心规模的扩大,这可能会有很长的路要走。CXL与CCIX和OpenCAPI相比有一项优势。OpenCAPI和CCIX是平衡的,即发送方和接收方具有相同的复杂度;随着传输量的增加,发送方和接收方的复杂度都增加了。CXL像USB一样以非对称方式工作,因此所有繁重的工作都在处理器端(应该在处理器端)完成。因此,CXL的可扩展性会高很多。特别是,创始成员英特尔指出,压缩、加密和人工智能(AI)等专业工作负载的增加导致了异构计算的更广泛使用;在异构计算环境中,专用加速器更经常与通用CPU并行工作。英特尔数据中心集团执行副总裁兼总经理NavinShenoy在一份声明中表示:“CXL在CPU、工作负载加速器(如GPU和FPGA)和网络之间创建了高速、低延迟的互连。CXL维护内存设备之间的一致性,允许资源共享以提高性能,降低软件堆栈复杂性,并降低整体系统成本。”该规范的1.0版将在computeexpresslink.org上发布,因此尚未正式发布。成员公司表示他们将在2021年开始推出产品。原标题:数据中心巨头宣布新的高速互连,作者:AndyPatrizio
