当前位置: 首页 > 科技观察

向400G的迁移可能比您想象的要早

时间:2023-03-15 10:21:55 科技观察

数据中心经理展望未来,云计算的迹象无处不在:更高性能的虚拟化服务器、更高的带宽和更低的延迟需求,以及更快的服务器切换连接。无论您现在运行的是10Gb还是100Gb,过渡到400Gb的速度可能比您想象的要快。诸多因素导致了400G/800G甚至更高的需求。数据中心已经从多个不同的网络转移到更加虚拟化、软件驱动的环境。同时,他们正在部署更多的机器对机器连接并减少它们之间的交换机数量。支持未来云规模数据中心的大多数组件已经存在。现在缺少的是创建可以将所有这些连接在一起的物理层基础架构的综合策略。那么我们该怎么做呢?收发器跃升至400Gb需要将当前SFP、SFP+或QSFP+收发器的密度提高一倍。这就是QSFP-双密度(QSFP-DD)和八通道小外形可插拔(OSFP)技术发挥作用的地方。两者都使用8通道而不是4通道,并且可以在1RU面板中安装32个端口。唯一显着的区别在于向后兼容性和功率处理。MSA提到了不同的光学连接选项:可以根据支持的应用选择LC、mini-LC、MPO8、12、16、SN、MDC和CS连接器。连接器多个连接器选项提供了更多分配更高八进制容量的方法。一个12芯MPO传统上用于支持6个双光纤通道。对于仅使用四个通道(八根光纤)的40GBase-SR4等许多应用,MPO16可能更适合与八进制模块一起使用。其他值得研究的连接器是SN和MDC,它们采用1.25mm插芯技术并为高速光学模块提供灵活的分线选项。最终的问题将是将来哪些收发器将与哪些连接器配合使用。芯片当然,对带宽的需求是没有限制的。目前,限制因素不是您可以插入交换机前端的容量,而是内部芯片组可以提供的容量。更高的基数与更高的SERDES速度相结合会产生更高的容量。2015年左右支持100Gb应用程序的典型方法是使用128-25Gb通道,从而产生3.2Tb的交换机容量。达到400Gb需要将ASIC增加到256个50Gb通道,从而产生12.8Tb的交换容量。下一个进步——100Gb的256通道——使我们达到25.6Tbs。正在考虑未来将通道速度提高到200Gb的计划——这是一项需要数年才能完善的艰巨任务。