当前位置: 首页 > 科技观察

数据中心新时代,开放网络如何使其自动化

时间:2023-03-19 01:40:27 科技观察

数据中心的新时代,开放网络如何实现从物理服务器到虚拟化系统的自动化,以及现在数据中心正在发展成为可组合的基础设施。在这个基础架构中,存储和持久内存等资源已经与服务器分离,原来只在CPU上运行的数据处理和网络任务已经演变为在GPU、DPU或FPGA上运行计算。此外,软件开发模式也从单机运行的程序发展到整个数据中心运行的分布式代码,实现了云原生、容器化的微服务。在新一代数据中心中,开发者可以通过可编程的数据中心结构,将各种类型的处理器和资源进行组装,形成他们所需要的云计算平台。数据中心的第一个时代是以CPU为中心的,即在一台计算机上只能运行一个应用程序。由于资源分配是静态的,服务器更换可能需要数周或数月,因此通常需要多台服务器,但未得到充分利用。在数据中心的第二个时代,虚拟化成为常态,每台服务器上运行多个虚拟机。资源是动态的,VM是按需创建的。当需要更多CPU、内存或存储时,可以将工作负载迁移到其他服务器上的VM。处理仍然由CPU执行,GPU或FPGA偶尔会加速特定任务。应用程序开发人员仍然一次在一台计算机上对CPU进行编程。第二代数据中心仍然以CPU为中心。数据中心的新时代现在,我们已经进入了数据中心的第三个时代,我们称之为ADI(AcceleratedDisaggregatedInfrastructure),它基于可组合的基础设施、微服务和特定领域的处理器。ADI具有以下特点:加速:不同的处理器可以根据优秀的解决方案加速不同的工作负载。CPU运行通用单线程工作负载,GPU运行并行处理工作负载,数据处理单元(DPU)管理数据的处理和低延迟移动,使CPU和GPU更高效地获取数据他们需要。例如,CPU可以运行数据库,GPU可以处理人工智能和视频,DPU可以快速、高效、安全地将正确??的数据交付到需要的地方。使用GPU加速的人工智能和机器学习现在无处不在:在线购物、5G无线、医学研究、网络安全、软件开发、视频处理,甚至数据中心运营。云和容器可以通过DPU快速增长,以加速网络、存储访问和安全性。解耦:计算、内存、存储和其他资源被汇集起来,并以适当的数量动态分配给服务器和应用程序。通常,应用程序本身是通过交互微服务构建的,而不是作为一个整体代码块构建的。这使得使用正确的资源比例编写应用程序并根据需要更改该比例变得更加容易。使用ADI模型,GPU、DPU和存储可以根据需要连接到任何服务器、应用程序或VM。通过使用Nvidia的GPUDirect和MagnumIO等技术,CPU和GPU可以通过网络相互访问和存储,所有这些都在同一台服务器上几乎完全相同,将正确数量和类型的GPU分配给需要它们加载的工作。每台服务器中的DPU管理和加速常见的网络、存储、安全、压缩和深度数据包检测任务,以保持数据快速、安全地移动,而不会对CPU或GPU造成负担。借助ADI,数据中心成为新的计算单元,完全可组合,由GPU和DPU加速。要对数据中心进行编程,必须对网络进行编程。对于ADI,数据中心是新的计算单元,网络结构提供了一个灵活、自动化、可编程的框架来动态组合工作负载资源。这意味着不仅要对CPU、GPU和DPU进行编程,还要对网络结构本身进行编程,将DevOps的优势扩展到网络,这种方法称为基础设施即代码(IaC)。该结构必须是可编程的、可扩展的、快速的、开放的、功能丰富的、自动化友好的和安全的。它在CPU、GPU和存储之间提供多条高带宽路径,并能够确定流量类别的优先级。借助ADI,每个应用程序都可以运行在由CPU、GPU和存储资源组成的虚拟服务器上,而DPU则可以加快访问速度并提高安全性。开放网络操作系统支持ADI传统上,交换机被设计为专有的“黑匣子”,其中网络操作系统(NOS)被锁定在特定的交换机硬件平台中,需要客户一起购买和部署它们。以英伟达为例,其做法是提供高质量的开放式端到端解决方案。客户可以使用优秀的交换机ASIC,并根据需要选择最好的NOS:CumulusLinux、MellanoxOnyx、SONiC等。客户甚至可以选择在spine交换机上运行SONiC,同时在机架交换机和园区交换机上使用CumulusLinux。与专有的封闭式交换机模型不同,开放式网络允许客户从一流的软件和硬件中进行选择,以获得他们需要的功能和性能并提高可管理性。企业、AI、云和HPC工作负载现在可以使用高级资源(包括GPU、CPU、DPU、内存、存储和高速连接)在整个数据中心的任何部分灵活运行。