随着数据中心的运营和不断发展,专业人员的习惯和沟通方式正在发生变化,网络速度正在提高,复杂性也在增加。现在安装正确的布线基础设施解决方案将使企业从一开始就获得更大的经济利益,留住并吸引更多的客户,并使他们的数据中心设施蓬勃发展。人们通常会从电影中了解到一些看似与现实相去甚远的概念,但这些概念很快就融入了人们的日常生活。1990年由阿诺德施瓦辛格主演的电影中有一辆令人印象深刻的无人驾驶汽车,名为“约翰尼出租车”,可以带人们去任何他们想去的地方。如今,大多数主要汽车公司都在大力投资将这项技术带给大众。早在1968年,人们就通过HAL9000对人工智能(AI)有了一些了解,HAL9000是一部关于太空漫游的电影中出现的有感知能力的计算机。HAL9000能够实现语音和面部识别、自然语言处理、唇读、艺术欣赏、解释情绪行为、自动推理,甚至下棋。在过去的几年里,人工智能正在成为日常生活中不可或缺的一部分。例如,智能手机可以用来查看旅游目的地的天气状况,虚拟助手可以播放人们喜欢的音乐,人们的社交媒体账户可以根据个人喜好提供新闻更新和广告。但在这些背景下,还有更多人们不了解的事情正在发生,这些事情可以帮助促进健康甚至挽救生命,如语言翻译、新闻提要、面部识别、更复杂疾病的准确诊断以及加速药物开发等。企业发展以及部署人工智能的一些应用。据研究机构Gartner预测,到2022年,人工智能衍生的商业价值有望达到3.9万亿美元。机器学习可以在一台机器上运行,但由于数据量巨大,它通常在多台机器上运行,所有机器相互连接以确保在训练和数据处理阶段服务的持续通信、低延迟、绝对不中断。人们对越来越多数据的渴望推动了带宽量的指数增长以满足需求。这些带宽需要使用更复杂的架构进行设计,并分布在多个数据中心设施内和跨多个数据中心设施,其中需要主干和叶脊网络,人们正在寻找超级叶脊网络来提供所有复杂的算法流动数据的高速公路在不同的设备之间,并最终返回给接收者。数据中心的技术部署选项这就是光纤在确保人们上传可供全世界观看、分享和评论的图片或视频方面发挥关键作用的地方。由于其高速和超高密度的能力,光纤已成为数据中心基础设施事实上的传输介质。随着人们转向更高的网络速度,它也为混合部署带来了全新的复杂性,将使用哪种技术?传统的三层网络使用核心、汇聚和边缘交换来连接数据中心内的不同服务器,其中服务器间的流量通过有源设备在南北方向上相互通信。然而,现在人工智能和机器学习可以带来高计算要求和相互依赖性,并且这些网络中更多的是使用两层脊椎和叶脊网络实现的,其中服务器通过生产和训练网络由于超低延迟要求。东西方向相互沟通。自2010年IEEE推出40G和100G网络传输技术标准以来,出现了很多相互竞争的专有方案,让用户不知何去何从,比如是否采用SR、多模、LR、单模等技术。40G和100G这两种技术都使用一对光纤在两个设备之间传输信号。无论使用哪种设备或该设备中安装了哪种收发器,这都是通过两根光纤进行的简单数据传输。但在IEEE批准40G和更快的网络解决方案后,它改变了竞争对手之间的游戏规则。目前正在研究两种类型的光纤,使用标准认可的或专有的、不可互操作的WDM技术,以及标准认可的或多源协议,使用具有8根光纤(4根传输,4根接收)(MSA)和工程接收的并行光学器件),或20芯光纤(10发送,10接收)。还是有点困惑?然后看下表,通常称为不同物理媒体相关(PMD)的字母表,它定义了物理层属性,如媒体类型、连接器类型和距离能力。表1.40G以太网表2.100G以太网表3.400G以太网现在一切都简化了,这里是一个简短的总结。如果企业想继续使用标准认证的解决方案,降低光的成本,因为企业不需要单模光纤的长距离能力,可以选择多模并行光,可以突破更快的40G或100G交换端口被分成更小的10或25G服务器端口。如果企业希望延长其安装的双工光纤的使用寿命,不介意与其首选硬件供应商保持联系,不需要互操作性,并且不需要更长的距离,那么可以选择这些多模WDM解决方案之一。大多数大规模部署AI的科技公司都在为当今和未来的网络设计单模并行光纤解决方案。这有三个简单的原因。1.成本与距离目前的市场趋势是先开发和发布并行光纤解决方案,然后是WDM解决方案,因此并行光解决方案的数量要多得多,从而降低制造成本。它们还支持比2公里和10公里WDM解决方案更短的距离,因此企业无需部署复杂的组件来冷却两端的激光器以及复用和解复用信号。虽然人们已经看到了这些“超大规模”数据中心设施的规模,但调查数据显示,这些设施中单模光纤的平均部署长度并未超过165m,因此无需购买更昂贵的WDM收发器来驱动它们.支持的距离。并行单模也比WDM解决方案使用更少的功率,并且正如您从谷歌之前的功率使用示例中看到的那样,任何可以降低数据中心最大运营成本的措施都是好事。2.灵活性部署并行光纤的主要优势之一是能够将高速交换机端口(例如40G)分解为4个10G服务器端口。端口突破提供了巨大的规模经济,因为突破低速端口可以显着减少电子设备的外壳或机架安装单元的数量,比例为3:1(而且数据中心资产并不便宜)并且使用更少的电力,需要更少的冷却设施,并能进一步降低能源成本,调查数据表明,这相当于为单模解决方案节省了30%的成本。光收发器供应商还证实,在所有已售出的并行光收发器中,有很大一部分被部署为利用此端口分线功能。3.简单明了的迁移主要开关和收发器供应商的技术路线图为部署并行光学的客户展示了一条非常清晰和简单的迁移路径。大多数科技公司都在走这条路,所以当光学可用并且他们从100G迁移到200或400G时,他们的光纤基础设施仍然存在而没有升级。那些决定使用双工双光纤基础设施的企业可能会发现自己希望升级到100G以上,但WDM光纤系统可能无法在其迁移计划的时间范围内使用。对数据中心设计的影响从网络连接的角度来看,这些网络是高度网状的光纤基础设施,以确保没有单个服务器彼此之间的距离超过两个网络跃点。但这样的带宽要求甚至不足以满足从主干交换机到叶-主干交换机的传统3:1超额订阅比率,并且更通常用于不同数据大厅之间的超级主干的分布式计算。由于交换机I/O速度的急剧增加,网络运营商正在努力提高利用率、提高效率并提供超低延迟。此外,在谷歌公司最近宣布其最新的AI硬件——一种称为张量处理单元(TPU3.0)的定制专用集成电路(ASIC)之后,传统数据中心的设计又发生了一次转变,可在巨型设计中使用pod,其功能提升了8倍。然而,将更多的计算能力放入芯片中也会增加驱动它的能量,从而增加热量,这就是数据中心使用液体冷却为芯片提供冷却的原因,因为TPU3.0芯片产生的热量比以前的数据集中冷却解决方案的局限性。结论AI是下一波业务创新。它可以节省运营成本、增加收入流、简化客户交互以及更高效的数据驱动工作方式,这具有许多优势。这在最近的一次小组讨论中得到了证实,当时专家表示,如果使用聊天机器人的网站效率低下并且没有对客户给予足够的关注,客户将放弃对话并且很难再次合作。因此,人们必须接受这项技术并将其用于他们的业务优势,这也意味着对数据中心的设计和实施有不同的思考。由于专用集成电路(ASIC)性能的显着提高,我们最终将看到I/O速度的提高,从而进一步推动网络连接。企业数据中心需要超高效的高速光纤网络、超低延迟、东西向spine和leaf-spine网络来容纳企业日常生产流量,同时支持机器学习训练。我们已经看到大型科技公司如何拥抱人工智能,以及部署并行单工如何帮助他们实现比传统的双工方法更高的资本和运营成本,这从一开始就承诺降低成本。但随着数据中心的运营和持续增长,专业人员的习惯和沟通方式正在发生变化,从而提高了网络速度并增加了复杂性。现在安装正确的布线基础设施解决方案将使企业从一开始就获得更大的经济利益,留住并吸引更多的客户,并使他们的数据中心设施蓬勃发展。
