当前位置: 首页 > 科技观察

数据中心网络:什么是脊叶架构?

时间:2023-03-17 15:41:03 科技观察

随着传统IDC向云数据中心转型,数据中心网络架构也在不断演进。在传统的大型数据中心中,采用分层模型设计的三层网络。将复杂的网络设计分成若干层,每一层专注于一些特定的功能,可以将一个复杂的大问题分解成许多简单的小问题。三层网络架构设计的网络分为三个层次:接入层(连接工作站到网络)主要面向终端客户,为终端客户提供接入功能,接入层的主要功能是规划同一个网段中工作站的数量增加了每个接入终端的带宽。汇聚层(提供基于策略的连接)汇聚层连接网络的核心层和各接入的应用层,承担两层之间“媒体传输”的作用。应用接入核心层之前,通过汇聚层对数据进行处理,减轻核心层设备的负载。聚合层提供内容交换、防火墙、SSL卸载、入侵检测和网络分析等服务。核心层(网络的高速交换骨干网)核心层承载着网络服务器与互联网各应用端口之间的传输功能,是整个网络的支撑骨干和数据传输通道。核心交换机为进出数据中心的数据包提供高速转发,并为多个汇聚层提供连通性。核心交换机通常为整个网络提供弹性的三层路由网络。通常,汇聚交换机是二层和三层网络的分界线,汇聚交换机下一层是二层网络,上一层是三层网络。每组汇聚交换机管理一个POD,每个POD是一个独立的VLAN网络。服务器在POD内迁移时,不需要修改IP地址和默认网关,因为POD对应一个二层广播域。在汇聚路由器和接入交换机之间,使用生成树协议(STP)构建二层网络的无环拓扑。生成树协议有几个优点:它很简单,而且是一种需要很少配置的即插即用技术。但是,生成树协议不能使用并行转发路径,并且倾向于阻塞VLAN中的冗余路径。2010年,思科推出vPC(VirtualPortChannel)技术,消除了生成树阻塞端口,提供从接入交换机到汇聚路由器的双活上行链路,充分利用可用带宽。但是vPC并不能真正做到全水平扩展。基于vPC的数据中心设计传统三层数据中心网络面临的挑战三层网络架构以其实现简单、配置工作量小、广播控制能力强等优点被广泛应用于传统DCN。然而,随着数据中心一体化、虚拟化、云计算等技术的发展,传统的三层网络架构已经不能满足网络的需求。主要原因是:无法支持虚拟机迁移所需的大规模二层网络建设,无法支持流量。无阻塞转发(尤其是东西向流量)虚拟机动态迁移虚拟化技术从根本上改变了对数据中心网络架构的要求。服务器虚拟化可以有效提高服务器利用率,按需提供服务和资源,降低能源消耗,降低客户运维成本,因此得到广泛应用。在虚拟化数据中心中,一台物理服务器被虚拟成多台逻辑服务器,称为虚拟机。每个VM都可以独立运行,有自己的OS、APP,有自己独立的MAC地址和IP地址。虚拟化出来之后,就有了虚拟机动态迁移的需求。虚拟机动态迁移是指在保证虚拟机正常运行的情况下,将虚拟机从一台物理服务器迁移到另一台物理服务器的过程。这个过程对于终端用户来说是不可感知的,因此需要保证在迁移过程中虚拟机的业务不能中断。动态迁移虚拟机时,不仅需要保持虚拟机的IP地址不变,还需要保持运行状态(如TCP会话状态)。这就要求迁移的起始位置和目标位置必须在同一个二层网络域中。由于局限性,传统数据中心的三层网络架构设计根本无法满足服务器虚拟化中更加灵活、可定制的虚拟机迁移策略。为了实现虚拟机大规模、甚至跨地域的动态迁移,要求所有可能参与虚拟机迁移的服务器都包含在同一个二层网络域中,形成一个更大的二层网络通过虚拟化技术。只有这样,才能实现虚拟机的大规模无障碍迁移。这种适合虚拟机随时随地无障碍迁移的大规模二层网络称为大规模二层网络。数据中心流量变化数据中心流量一般可分为以下几类:南北向流量:数据中心外部客户端与数据中心服务器之间,或数据中心服务器访问互联网的流量。东西向流量:数据中心内服务器之间的流量。跨数据中心流量:不同数据中心的流量,如数据中心之间的容灾、私有云与公有云之间的通信。在传统数据中心,业务通常采用专线部署。通常,服务部署在一台或多台物理服务器上,并与其他系统物理隔离。因此,传统数据中心的东西向流量较低,南北向流量约占数据中心总流量的80%。在云数据中心,服务架构逐渐从单体架构转变为Web-APP-DB,分布式技术成为企业应用的主流。服务的组件通常分布在多个虚拟机或容器中。该服务不再由一台或多台物理服务器运行,而是由多台服务器协同工作,导致东西向流量迅速增加。此外,大数据服务的出现,使得分布式计算成为云数据中心的标配。大数据业务可以分布在一个数据中心的数百台服务器上进行并行计算,这也大大增加了东西向流量。传统的三层网络架构是为南北向流量为主的传统数据中心设计的,不适用于东西向流量较大的云数据中心。一些东西向的流量(比如跨POD的二层、三层流量)需要通过汇聚层和核心层设备转发,不必要经过很多节点。传统网络通常会设置1:10到1:3的带宽超额比例,以提高设备利用率。在超额订阅率下,每次流量通过节点时性能都会显着下降。此外,第3层网络上的xSTP技术加剧了这种恶化。因此,如果大量东西向流量通过传统的三层网络架构运行,则连接到同一交换机端口的设备可能会争夺带宽,从而导致最终用户的响应时间很短。Spine-Leaf架构的Clos网络以其发明者CharlesClos的名字命名。查尔斯·克洛斯(CharlesClos)是一名电话网络工程师。在50年代,他需要解决如何应对电话网络爆炸式增长的问题。他提出了现在称为Clos架构的网络。一个简单的两层Clos网络主干-叶子架构是由主干和叶子两个交换层组成的数据中心网络拓扑。叶子层由接入交换机组成,这些交换机聚合来自服务器的流量并直接连接到主干或网络核心。主干交换机以全网状拓扑互连所有叶交换机。上图中,绿色节点代表交换机,灰色节点代表服务器。绿色节点中,最上面的是Spine节点,最下面的是Leaf节点。Spine-Leaf架构更适合满足现代应用程序的高吞吐量和低延迟等需求。主干交换机具有高吞吐量、低延迟和端口密集的特点,并且它们与每个叶交换机都有直接的高速(40-400Gbps)连接。枝叶交换机与传统TOR交换机非常相似,它们通常有24或48个端口,具有1、10或40Gbps的接入层连接。但是,它们为每个骨干交换机增加了40、100或400Gbps上行链路的能力。spine-leaf架构与传统网络设计有何不同?传统数据中心网络通常基于三层模型:接入交换机连接服务器汇聚交换机为接入交换机提供冗余连接核心交换机提供汇聚交换机之间的快速传输Spine-Leaf架构减少核心层,实现扁平化图层,如下图所示。此外,关于脊叶架构的其他常见差异如下:放弃生成树协议(STP)越来越多地使用固定端口交换机而不是网络主干模块化模型上述水平和垂直基础设施的扩展随着东部地区数量的增加-西向流量,低延迟、优化的流量对于东西向流量的性能至关重要,尤其是在时间敏感或数据密集型应用程序中。spine-leaf架构的主要优点之一是它允许数据流采用更短的路径从数据源到数据目的地。Spine-Leaf结构中的数据流无论来源和目的地如何,在网络中的跳数都是一样的,任意两台服务器都可以通过Leaf—>Spine—>Leaf三跳到达。容量也增加了,因为脊叶架构消除了对STP的需求。它依赖于ECMP(等价多路径)路由等协议来平衡所有可用路径上的流量,同时仍然避免网络环路。除了更高的性能,spine-leaf架构还提供了更好的可扩展性。可以添加额外的主干交换机并将其连接到每个叶子以进一步增加容量。同样,当端口密度成为问题时,可以无缝添加新的叶子交换机。在这两种情况下,都不必为这种基础设施扩展(“向外扩展”)重新设计网络,也没有停机时间。