数据中心网络一直分为两部分,数据网络和存储网络各占一半,平分秋色。数据网络采用以太网IP技术,存储网络采用FC光纤通道技术。有两个网络和两种技术的历史原因。你可以问度娘。这里不用多说,从数据中心诞生的那一天起,我们就在讨论如何将两个网络合二为一,如果可以将两个网络合并为一个网络,好处是显而易见的:节省成本,无需建设两个网络,减少服务器所需的网络接口卡数量,降低服务器功率预算和散热要求;大大减少了需要管理的线缆数量,方便维护。以太网和光纤通道两种技术不一定要掌握,只需要掌握其中一种即可。然而,现实是残酷的。毕竟这两种网络技术差异太大,各有特点,很难相互替代。数据转发和数据存储的原理完全不同,就像服务器也有硬盘一样。存储数据,但部署存储设备毕竟不具备存储设备的容量和数据容错机制,两者不能相互替代。既然网络两端的设备不能更换,那么网络中间部分是否可以互相更换呢?答案是肯定的。不管是数据传输的网络,还是传输和存储的网络,都定义了报文的协议格式。IP协议格式和FC协议格式自然不同,不能相互使用,但可以封装起来复用FC协议的外层。IP协议封装,或者说在IP协议的外层用FC协议进行封装,使得存储数据可以在以太网网络中传输,或者以太网数据可以在存储网络中传输。我们知道以太网IP技术发展非常迅速,这使得以太网IP技术越来越成熟。与FC技术相比,FC技术的发展相对缓慢。在这种情况下,希望利用数据网络来传输和存储数据。越来越高,使得两个网络的融合得以实现,于是一种新技术——FCOE技术诞生了。FCOE是两网融合的技术基础。本质上就是在FC报文中加上一个FCOE报文头,从而实现报文在以太网上传输和存储的目的。通过在数据中心部署FCOE网络,可以使用一个以太网络完成数据转发和存储两种功能。这项技术对于FC网络设备厂商来说是晴天霹雳。一旦这项技术成熟并得到广泛应用,FC网络设备厂商将不得不关门大吉。显然,这个过程不会一帆风顺。数据中心要想将两网融合,必然要经历很多痛点。首先,存储流量对丢包和时延非常敏感,这在以太网络中不是问题,但是存储流量在以太网络中的传输要求零丢包和低时延,这就提出了非常高的要求用于以太网技术。要求。随着10G/40G网络技术的普及,高带宽解决了时延问题。新型数据中心网络设备还具备大缓存技术,在遇到突发流量造成的拥塞时,可以实现数据转发延迟。还是很低。针对丢包,FCOE设计了单独的流控技术,避免网络丢包。当服务器或存储向网络设备发送流控帧时,网络设备可以将流控帧传递给发送方,要求降速。如果拥塞情况不严重,网络设备也可以在自己的设备中缓冲流量。FCOE中的流控技术不同于以太网的流控技术,流控效果更好。这些技术虽然有保障,但在实施中仍存在困难。你会发现FCOE网络中有很多流控帧。因此,FCOE网络的流量并不稳定,总是会出现流量尖峰。这是频繁控制流量造成的。如果存储量大,对FCOE网络是一个考验。其次,传统的二层以太网网络采用生成树协议不断消环,这意味着冗余级联的交换机只能使用其中一台级联的带宽,带宽被极大浪费。同时,生成树协议可能导致路径长,切换效率低,切换时间长。该场景无法满足存储流量转发需求。即如果部署FCOE网络,就不能使用STP/MSTP/RRPP等传统环网协议,必须使用新的环网协议,如TRILL、FabricPath、SPB等。这些新的环网协议理论上可以非常快。可以很好的解决链路冗余、链路切换效率低的问题,但实际效果如何还不得而知。据了解,目前在实际数据中心部署的TRILL等环网技术还很少,新技术的接受过程还很漫长。三是人员和流程变更问题。存储技术人员不想为以太网技术人员工作。他们知道一定有赢家和输家,谁都不想成为输家。数据中心不同部门之间的“告密”,对以太网和存储网络的传输也起着重要作用。底线是FCOE技术不容易维护。FCOE虽然是一种基于以太网封装的技术,但里面其实是FC包。当出现问题时,定位和分析问题是非常麻烦的。同时,往往很难分析出问题出在哪一端。尤其是由于厂商在服务器、网络、存储三大领域对FCOE的实现存在差异,不同厂商的设备之间的配合可能会出现各种各样的问题。因此,一旦出现问题,他们往往相互推诿,导致问题的解决迟迟未果。一旦出现这样的问题,对数据中心客户的伤害会很严重,往往会让很多数据中心客户转而使用FC网络,或者干脆把数据网络和存储网络分开。把它记下来。造成这种情况的原因是FCOE技术本身还不够成熟,需要同时懂IP和FC技术的人,以及不同厂商设备之间的默契配合。种种原因导致了FCOE技术的流行,但实际上使用的数据中心并不多。将数据中心的数据流量和存储流量放在同一个网络上,相当于把公路和铁路交通放在一起。这是可行的,但需要特别仔细的准备和监测。迄今为止,这些痛点都没有得到很好的解决,这也导致数据中心两网融合成为一句空话,一体化数据中心解决方案难以推进。
