当前位置: 首页 > 科技赋能

人工智能和光纤技术对数据中心的影响

时间:2024-05-22 19:04:41 科技赋能

人们通常从电影中理解一些看似与现实相去甚远的概念,但这些概念很快融入到人们的日常生活中。

在2017年上映的阿诺施瓦辛格主演的电影中,一辆名为“Johnny Cab”的自动驾驶汽车令人印象深刻,可以带人们去任何他们想去的地方。

如今,大多数大型汽车公司都在大力投资,将这项技术带给大众。

早在 2000 年,人们就通过 HAL(一部关于太空漫游的电影中出现的有感知能力的计算机)对人工智能 (AI) 有了一些了解。

HAL 能够实现语音和面部识别、自然语言处理、唇读、艺术欣赏、解释情绪行为、自动推理,甚至下棋。

在过去的几年里,人们已经确定人工智能已经成为日常生活中不可或缺的一部分。

例如,智能手机可用于检查旅行目的地的天气状况,虚拟助理可以播放人们最喜欢的音乐,人们的社交媒体帐户将根据个人喜好提供新闻更新和广告。

但在这些背景下,还有更多鲜为人知的事情正在发生:可以帮助促进健康甚至拯救生命的企业开发和部署、语言翻译、新闻推送、面部识别、更复杂疾病的准确诊断以及加速药物开发。

人工智能的一些应用。

据研究公司Gartner预测,到2020年,人工智能衍生的商业价值预计将达到3.9万亿美元。

那么人工智能技术如何影响数据中心呢?早在 2016 年,谷歌就在其一个数据中心设施中部署了 Deepmind AI(使用机器学习和人工智能的应用程序)。

结果是能够将数据中心用于冷却的能源减少 40%,这相当于在考虑电力损耗和其他非冷却效率后 PUE 减少 15%,这也产生了有史以来最低的性能数据中心。

PUE。

基于这些显着的成本节省,谷歌希望在其他数据中心部署该技术,并建议其他公司也这样做。

Facebook 的使命是“让人们能够建立社区,让世界更加紧密地联系在一起”。

Facebook 的应用机器学习白皮书从数据中心基础设施的角度提供了概述。

它描述了如何在全球范围内支持机器学习。

硬件和软件基础设施。

为了让人们了解人工智能和机器学习需要多少计算能力,百度硅谷实验室首席科学家吴恩达表示,训练百度的中文语音识别模型不仅需要4TB的训练数据,还需要20计算机的计算能力为百亿亿次浮点运算。

也就是说,整个训练周期需要数十亿次数学运算。

但数据中心基础设施呢?人工智能将如何影响企业想要建造、租赁或升级的所有不同规模和类型的数据中心的设计和部署,以适应这种创新、节省成本甚至挽救生命的技术?机器学习可以在单台机器上运行,但由于数据量令人难以置信,它通常在多台机器上运行,所有机器互连以确保连续通信、更低的延迟以及在训练和数据处理阶段服务绝对不会中断。

人们对越来越多数据的渴望推动了满足需求所需的带宽量呈指数级增长。

这些带宽需要更复杂的架构设计,并且分布在多个数据中心设施内和跨多个数据中心设施,需要主干网络和叶主干网络,人们正在寻找超级叶主网络来提供所有复杂的算法。

不同的设备并最终返回给接收者。

数据中心的技术部署选项光纤在确保人们上传图片或视频供全世界查看、分享和评论方面发挥着关键作用。

凭借其高速和超高密度的能力,光纤已成为数据中心基础设施事实上的传输介质。

由于向更高网络速度的迁移也给混合部署带来了全新的复杂性,因此将使用哪种技术?传统的三层网络采用核心、汇聚、边缘交换的方式连接数据中心内的不同服务器,服务器间的流量通过有源设备进行南北向的通信。

然而现在,人工智能和机器学习可以带来很高的计算要求和相互依赖性,并且更多的这些网络是使用两层脊椎和叶脊网络来实现的,其中服务器由于超低功耗而跨生产和训练网络移动延迟要求。

东西方向互相交流。

自2016年IEEE推出40G和5G网络传输技术标准以来,出现了许多相互竞争的专有解决方案,这给不确定该走哪条路的用户造成了一些困惑,例如是否采用SR、多模、 LR、单模等技术。

40G 和 5G 这两种技术都使用一对光纤在两个设备之间传输信号。

无论使用哪种设备或在该设备中安装哪种收发器,这都是通过两条光纤进行的简单数据传输。

但在 IEEE 批准 40G 和更快的网络解决方案后,竞争对手之间的游戏规则发生了变化。

目前正在研究使用经标准批准或专有的、不可互操作的 WDM 技术的两根光纤,以及使用经标准批准的并行光学器件的 8 芯光纤(4 根传输、4 根接收)或多源协议 (MSA) 和工程技术接收),或20芯光纤(10发送,10接收)。

还有一些困惑吗?那么请参考下表,俗称不同物理介质相关字母表(PMD),它定义了介质类型、连接器类型和距离函数等物理层属性。

表 1. 40G 以太网 表 2. G 以太网 表 3. G 以太网现在已经简化了一切,简要总结如下。

如果您因为不需要单模光纤的长距离功能而想要继续使用经过标准认证的解决方案并降低光学成本,则可以选择可以突破更快的 40G 或 G 交换机的多模并行光学器件。

端口分为更小的10或25G服务器端口。

如果企业想要延长已安装的双工光纤的使用寿命,不介意选择没有互操作性的首选硬件供应商,并且不需要更长的距离,则可以选择其中一种多模 WDM 解决方案。

大多数大规模部署人工智能的科技公司正在为当今和未来的网络设计单模并行光纤解决方案。

这有三个简单的原因。

(1)成本和距离 目前的市场趋势是首先开发并发布并行光纤解决方案,然后是WDM解决方案,因此并行光学解决方案的数量要多得多,从而降低制造成本。

与 2 公里和 10 公里 WDM 解决方案相比,它们还支持更短的距离,因此公司不需要部署太多复杂的组件来冷却激光器以及在两端复用和解复用信号。

虽然人们已经看到了这些“超大规模”数据中心设施的规模,但调查数据显示,这些设施中单模光纤的平均部署长度尚未超过10m,因此无需购买更昂贵的WDM收发器来驱动他们。

支持的距离。

并行单模式也比 WDM 解决方案使用更少的功率,正如我们之前从 Google 的功率使用示例中看到的那样,任何可以降低数据中心最大运营成本的事情都是一件好事。

(2) 灵活性 部署并行光学器件的主要优点之一是能够采用高速交换机端口(例如 40G),并将其分解为 4 个 10G 服务器端口。

端口分线提供了巨大的规模经济,因为分线低速端口可以显着减少 3:1 的电子外壳或机架安装单元的数量(数据中心资产并不便宜),并且使用更少的电力,需要更少的冷却设施并且可以进一步降低能源费用,调查数据显示,这相当于单模解决方案节省30%的成本。

光纤收发器供应商还确认,所销售的所有并行光纤收发器中很大一部分都是为了利用此端口分支功能而部署的。

(3) 简单、清晰的迁移 主要交换机和收发器供应商的技术路线图为部署并行光学器件的客户展示了非常清晰、简单的迁移路径。

大多数科技公司都遵循这条路线,因此当光学可用并且它们从 5G 迁移到 5G 或 5G 时,它们的光纤基础设施仍然存在,无需升级。

那些决定使用双工双光纤基础设施的企业可能会发现自己想要升级到 5G 以上,但 WDM 光纤系统可能无法在其迁移计划的时间内可用。

对数据中心设计的影响从网络连接的角度来看,这些网络是高度网状的光纤基础设施,以确保没有单个服务器彼此之间的网络跃点超过两个。

但这样的带宽需求,即使是传统的从主干交换机到叶-主干交换机的3:1超额订阅比例也不够,更通常用于不同数据大厅之间的超级主干的分布式计算。

由于交换机 I/O 速度的显着提高,网络运营商正在努力提高利用率、提高效率并提供超低延迟。

此外,在谷歌最近宣布其最新的人工智能硬件——称为张量处理单元(TPU 3.0)的定制专用集成电路(ASIC)之后,传统数据中心设计发生了另一个转变。

在巨大的吊舱设计中,其功能性增加了8倍。

然而,为芯片增加更多的计算能力也会增加驱动它的能量,从而增加热量,这就是为什么数据中心使用液体冷却来为芯片提供冷却,因为TPU 3.0芯片产生的热量已经超过了之前数据的限制中心冷却解决方案。

结论 人工智能是下一波商业创新浪潮。

它可以节省运营成本、增加收入来源、简化客户交互以及更高效的数据驱动工作方式,这些都具有许多优势。

这在最近的一次小组讨论中得到了证实,专家们表示,如果使用聊天机器人的网站效率低下并且不能提供足够的客户关注,客户将放弃对话并发现很难再次与他们合作。

因此,人们必须拥抱这项技术并将其用于自己的业务优势,这也意味着以不同的方式思考数据中心的设计和实施。

随着专用集成电路 (ASIC) 性能的显着提高,我们最终将看到 I/O 速度的提高以及网络连接方面的更深层次的进步。

企业数据中心需要超高效的高速光纤网络、超低时延、东西脊和叶脊网络,以适应企业的日常生产流量,同时支持机器学习训练。

我们已经看到大型科技公司如何拥抱人工智能并部署并行单纯形模型,以帮助他们实现比传统双工方法更高的资本和运营成本,而传统双工方法从一开始就承诺降低成本。

但随着数据中心的运营和不断发展,专业人员的习惯和沟通方式不断变化,网络速度不断提高,复杂性也随之增加。

现在安装正确的布线基础设施解决方案将使您从一开始就获得更大的经济效益,保留并吸引更多客户,并使您的数据中心设施蓬勃发展。