软件定义数据中心(SDDC)市场多年来一直在增长,已成为行业发展趋势,部分原因是虚拟化和云计算等技术的进步。繁荣。软件定义数据中心(SDDC)市场多年来一直作为行业趋势增长,部分原因是虚拟化和云计算等技术的蓬勃发展。组织基础架构已经发展得更具动态性和适应性,可以满足对更高敏捷性的业务需求。但什么是软件定义数据中心(SDDC)?它现在是如何从系统中实现的?软件定义数据中心(SDDC)的简单定义是整个基础架构都可以在软件控制下进行配置的数据中心。这不仅仅意味着部署服务器,还包括可用于满足应用程序需求的互联网络和存储资源。除了Google、AWS、Facebook等大型互联网公司运营的数据中心外,很多企业的数据中心都需要能够应对客户资源不断变化的需求。这些为其他服务提供商和企业提供了一些模式。跟随行业***这些超大规模企业从头开始构建了他们的数据中心,但通常只提供有限范围的服务支持。其他组织可能需要处理更广泛的用途和遗留基础设施,他们无法一劳永逸地更换所有基础设施。超大规模运营商还拥有并拥有开发自己的自动化和编排工具的资源,而其他人则需要使用现成的商业或开源工具。Ovum高级分析师RoyIllsley表示,软件定义网络和软件定义存储将是未来几年IT支出增长最快的领域,其次是云编排和管理。“事实会告诉人们,市场正在走向这样一个事实,即一切都将变得软件定义,一切都由软件控制,IT部门的内部支出越来越多地转向软件而不是硬件,”Illsley说。但是对于软件定义的含义并没有单一的定义。虽然这对于服务器来说相当简单,因为它通常意味着使用虚拟机或容器在多个工作负载之间分配硬件资源,但对于存储或网络而言,事情并不那么简单。例如,软件定义网络(SDN)将转发数据包的网络数据平面与管理整体流量的控制平面分开。为了支持软件定义网络(SDN),思科等交换机供应商必须使用OpenFlow等协议配置其硬件,这样他们路由流量的方式就可以由中央控制器动态管理。然而,OpenStackNeutronServices和VMwareNSX等SDN平台在服务器上运行,并使用基于软件的交换来管理虚拟机之间的流量。它们还支持创建覆盖物理LAN的虚拟网络,但需要启用不同范围的IP地址和安全策略。软件定义存储(SDS)也很难确定。也许最常见的定义是分布式存储服务,例如RedHat的Ceph或Gluster产品。它们用于从服务器节点集群的组合资源(如块存储、对象存储、文件系统或这些的组合)中创建可扩展的存储池。同时,软件定义存储(SDS)也可以指存储虚拟化,比如DataCore的SANsymphony。这将现有存储基础设施(包括来自第三方供应商的阵列)抽象并整合到一个虚拟SAN中。然后,它为该存储池提供一组统一的存储服务,包括服务质量、自动精简配置和自动分层。不管人们如何描述,软件定义基础架构的目的都是灵活的:通过高级管理工具进行配置、控制和监控。这可以通过Puppet等配置管理软件,或OpenStack或Mesosphere的DC/OS等编排平台来实现。但是许多组织会有许多可能不适合这种运营模式的遗留工具包。这意味着他们可能被迫运行“双速”IT基础设施,而更新周期逐渐引入可以由软件定义的现代工具包。为了解决这个问题,几个新平台被描述为预打包的SDDC解决方案。VMware的平台就是一个很好的例子,它基于三大支柱:运行虚拟机的vSphere、软件定义存储产品vSAN和提供软件定义网络的NSX。这些软件以各种方式与管理工具套件相结合,提供诸如VMwareCloudFoundation之类的产品,这些产品可以部署到客户自己的数据中心或公共云中的超融合系统硬件,就像VMwareonAWSCloud一样相同的。微软将WindowsServer2016推广为软件定义的数据中心(SDDC)平台,这要归功于用于运行虚拟机的Hyper-V、StorageSpacesDirect和Hyper-V虚拟交换机以及用于管理的SystemCenter套件。还有其他类似的产品,大多数要求客户购买完全集成的平台。这些解决方案可以从少数几个节点开始,扩展到机架级别甚至更高,但都将客户锁定在一个供应商的平台上。如果组织更喜欢开源软件的替代方案,那就是OpenStack框架。这种模块化架构由许多独立的项目组成。核心模块包括用于管理计算的Nova,用于配置网络的Neutron,以及用于块存储和对象存储的Cinder和Swift。欧洲粒子物理实验室(CERN)特别使用OpenStack来管理数千个计算节点,从而成为服务于大型强子对撞机和其他实验的IT基础设施。到目前为止,只涵盖了IT基础设施,但数据中心还包括配电和冷却等其他设施。这些设备是否也可以在软件控制下进行管理,以最有效地利用资源?软件定义的电源开始受到VirtualPowerSystems(VPS)等供应商的青睐。该公司开发了智能控制能源(ICE)技术,使用UPS来满足高峰负载期间的部分电力需求。这意味着不必过度配置配电基础设施来处理可能不会经常发生的峰值负载,并且数据中心所有者可能会从能源公用事业公司获得回扣。在冷却方面,数据中心基础设施变得越来越智能,但“按需冷却”很少被出售。一种早期方法来自HPE,该公司几年前使用传感器和计算流体动力学(CFD)来分析数据中心的气流,并将冷空气引导到最需要的地方。最近,液体冷却技术供应商提到他们的技术可以精确地从热量产生的地方去除热量,而AlignedEnergy的子公司Inertech正在提供一种系统,其中冷却单元分布在机架上方,因此可以将它们移除根据需要按需提供冷却。显然,数据中心的各个方面都变得越来越重要,并且通过软件得到更精确的控制。数据中心的未来是软件定义的,但仍然存在两个问题:它会是什么样子以及组织需要多长时间才能实现?超融合如何适应软件定义?超融合系统(也称为超融合基础设施,HCI)代表越来越多的服务器出货量进入企业市场。有充分的理由,超融合系统将服务器、存储和网络功能组合到一个类似设备的节点中,使组织更容易采购和支持新的基础设施。尤其是IT部门经常从各种来源的现有服务器、存储和网络部署中构建私有云。当这些公司开始更新他们现有的基础架构时,超融合系统已成为一种交钥匙解决方案。超融合系统使用直连存储而不是传统的SAN。集群中所有节点的存储资源汇集在一起??,形成软件定义的存储平台或节点间共享的虚拟SAN。这听起来很像软件定义的基础架构,确实如此。然而,值得注意的是,超融合基础设施涉及在相同节点上运行的计算和存储,而典型的软件定义存储部署使用仅作为共享存储系统运行的节点集群。从这个意义上说,超融合基础设施可以被认为是软件定义数据中心的标志。它采用单个节点的简单情况,而完整的软件定义数据中心(SDDC)将在很久以后才能实现。
