当前位置: 首页 > 科技观察

联想超融合架构:应运而生的新一代数据中心

时间:2023-03-21 15:12:19 科技观察

在当今“互联网+”时代,数据量呈爆发式增长。持续改进。传统的数据中心架构远远不能满足当前的需求,主要体现在以下三个方面:  痛点一:架构复杂由数据库、集中存储和高可用软件组成的架构采用专用的物理服务器来为特定应用程序提供支持。设备种类多,运维困难,应用的可靠性很大程度上依赖于硬件提供的RAS特性,导致硬件产品规格不断提升,硬件采购成本极高。  2003年,服务器虚拟化技术兴起,数据中心进入另一个阶段——虚拟化数据中心。数据中心的架构逐渐演变为X86服务器+虚拟化+集中式存储,但集中式存储磁盘阵列的扩展性通常是scaleup的,这在制造时就已经决定了,存储设备之间的数据迁移也非常困难,从而导致性能孤岛和数据孤岛的出现。其次,各个厂商的存储设备互不兼容,各种设备都需要专业的运维人员,大大增加了运维的复杂度。另一方面,水平扩展的虚拟化对接集中式存储架构,对存储的RAS特性非常依赖,存储设备的故障会导致整个虚拟机资源池的关闭。  痛点2:计算与存储分离  传统数据中心是计算与存储分离的架构。提供,而存储容量由底层存储设备提供,因此需要分别提供面向虚拟化和面向存储的数据服务。另外,这样的架构体系使得存储配置更加复杂。不仅需要关注虚拟机与Datastores和LUN的比例,还需要关注存储控制器数量对应的I/O需求。  另一方面,在传统架构中,计算和存储相互隔离,导致虚拟机的数据分布完全依赖于存储设备的能力,其数据分散在本地和远程。对于远程访问,数据访问路径长,延迟比较大。  痛点三:性能瓶颈  在传统的数据中心架构中,计算节点访问数据存储设备需要经过网络存储交换机。但是,固态驱动器在当今的存储系统中更为常见。I/O性能,但是在如此高的性能下,存储网络和存储控制器无法处理海量I/O吞吐,成为瓶颈。  另一方面,虚拟机的I/O性能完全取决于后端存储的能力。随着物理机上虚拟机数量的增加,所有的虚拟机数据都需要通过存储交换机和存储控制器流向后端存储,从而造成数据网络的阻塞,降低虚拟机数据访问的性能。  更重要的是,由于存储瓶颈,虚拟机无法获取足够的数据,这也导致了计算资源的闲置。  传统数据中心的虚拟化技术只能在专用硬件设备上实现资源的虚拟化和管理,并未完全实现硬件资源与虚拟化软件的解耦,导致架构复杂、性能瓶颈等一系列问题如管理和运维困难等。传统架构已不能满足企业IT数据中心快速发展和变化的需求。新一代数据中心的设计目标主要体现在以下几个方面:  特点一:架构简单  新一代数据中心采用通用易用的X86服务器实现所有功能,以及采用软件定义技术,实现软件定义计算、软件定义存储、软件定义网络,使这三大数据中心的重要基础设施(服务器、网络、存储设备)更加灵活,对基础物理硬件的依赖更少。  新一代数据中心采用可水平扩展的分布式系统。从存储到计算,架构设计始终遵循分布式原则。实现自由横向扩展。  特点二:计算与存储融合  新一代数据中心实现计算与存储的融合,使数据访问本地化,降低访问延迟。其次,根据不同的应用场景,提供相应的服务,如数据迁移、克隆等。  特点三:高效  新一代数据中心首先需要能够支持各种业务场景。线性增长。其次,要保证数据的安全、可靠和高效利用;最后,软件可以通过自身的能力实现自检和修复,让系统更方便快捷,从而提高运维效率。  联想超融合技术架构应运而生。联想超融合架构基于通用x86服务器,全面融合计算和存储,提供计算虚拟化和软件定义存储的基础架构。  从计算的角度来看,联想的超融合技术一方面是基于通用的x86服务器,另一方面是使用标准的虚拟化平台,包括VMware和KVM。  从存储的角度来看,它具有以下特点  -分层持久化存储  所有物理服务器上的硬盘组成一个存储资源池,包括所有的SSD和HDD。全机械硬盘构成存储容量层,SSD闪存盘构成存储性能层,两者共同构建分层持久存储(TPC:TieredPersistenceStore)  -虚拟存储控制器  采用标准计算虚拟化该技术用虚拟存储控制器(VSC:virtualstoragecontroller)替代传统的存储控制器,提供数据读取、I/O引擎、集群管理和缓存等功能  ——水平扩展的分布式系统  每个服务器都有同样是VSC,将传统的垂直扩展的存储设备转化为水平扩展的分布式系统,更有利于随着用户业务的增长而扩大规模。联想超融合技术架构  超融合技术最重要的是计算和存储的融合。联想超融合技术一方面提供本地数据接入,另一方面提供各种面向应用的数据服务,包括快照、克隆、压缩、数据迁移等功能。