当前位置: 首页 > 科技观察

超融合架构的本质是什么?

时间:2023-03-21 12:45:38 科技观察

我们不去评判对错,也不去探究这些是不是真正的超融合,而是追本溯源,思考为什么现在超融合受到关注,IT架构是什么样的?更“适合”今天的业务。首先,之所以选择超融合架构,是因为传统存储无法解决当前企业数据中心的问题。根据麦肯锡研究,全球IT数据每年以40%的速度增长。数据正在逐渐影响业务,企业通过数据分析进行决策和管理。要完成快速的分析、决策和管理,需要一个强大的数据中心。下图为传统SAN存储:图1.传统SAN存储然而,仅仅依靠越来越快的CPU、越来越多的内核是不够的。瓶颈在于传统存储的硬盘速度太慢,大部分CPU的计算能力都在空闲或者等待存储数据传输。传统的存储容量和性能不具备与“计算能力”相匹配的可扩展性,无法满足企业对数据访问的需求。图2.传统SAN存储遇到I/O瓶颈。这个问题并不新鲜。谷歌很早就遇到了这个问题。那么谷歌是如何做到的呢?作为一家为全世界的互联网用户提供数据检索的公司,谷歌当时考虑过EMC、IBM、SUN的存储产品,但没有一个能解决它的问题。无论是容量还是性能,这些公司的产品都无法满足谷歌的规模需求。所以Google只能搭建一个适合自己数据搜索的存储结构。谷歌杰出的计算机科学家打破了传统的存储思维,利用服务器的本地硬盘和软件构建了一个容量和性能持续扩展的分布式文件系统,并在其上构建了它的搜索和分析计算引擎:存储再通过网络传输到计算端,计算直接分发到存储运行,以“计算”为传输单元进行传输,从而实现本地访问大量存储数据,无需再通过网络传输,自然访问速度非常快。所以,很自然地,“计算”和“存储”在一台服务器上运行(“融合”),而这里我们也看到了超融合架构的一个优势就是本地访问数据不必跨越网络.图3超融合架构示意图现代企业的数据越来越多,应用也越来越多。他们开始面对谷歌当年遇到的问题。CIO们必须考虑如何更高效地构建自己的计算和存储基础架构。以满足应用程序的数据访问要求。虚拟化是为了更容易管理应用程序而诞生的,它解决了闲置CPU和内存资源的问题。但是,随着虚拟化的大规模应用,虚拟机越来越多,而虚拟机在传统存储上的运行却越来越慢。“慢”导致“体验差”,“体验差”成为制约虚拟化应用的最大瓶颈。这里最主要的原因自然是存储的I/O性能不够,大量的虚拟机和容器同时运行,I/O的混合使得随机读写激增.传统的存储结构无法承受大量的随机I/OO,正是为了解决这个问题,超融合被带到了虚拟化和容器领域。同时,业界对于I/O问题的解决方式也各不相同。我们先尝试分析其他方案:方案一:在存储设备中使用SSD作为Cache来加速I/O。这可能在一定规模上有效,但存储设备的SSDCache通常比较小。如果容量比例低于5%,自然无法满足用户的热点数据缓存需求。另外,仍然无法按需扩展,所有数据还是要从集中存储控制器流出。这个集中的“收费站”势必会堵住“高速公路”。方案二:使用服务器端SSD作为Cache来加速I/O。这种类似的解决方案通常缺乏高可靠性软件的支持。如果服务器端的Cache作为写Cache,存在单点故障的问题。需要在多台服务器的缓存设备上制作副本以提供可靠性。据说这是超融合架构的阉割版,将Cache放在了服务器端,仍然使用传统存储。当Cache满了,需要回写到传统存储时,整体性能仍然受限于传统存储的“控制器”。我们看到,以上两种解决方案都受到传统存储结构的限制,但超融合存储则不同。通过完全去除传统存储,使用分布式文件系统提供“无限”的性能和容量。在这个基础上,自然要用Cache加速,甚至用闪存(全闪存产品)来搭建,没有限制。所以,超融合架构不是让单台服务器的存储变快,而是让存储的性能随着每增加一台服务器而线性提升。可靠性。图4.超融合存储池并线性提高性能。正是因为有了这种可扩展的共享存储,整个谷歌业务才能顺畅运行。SMARTX做的就是这样一个更好更稳定的基础服务。另外,超融合之所以在近几年得到快速发展,也得益于硬件设备。CPU核心数越来越多,服务器的内存容量越来越大,SSD设备和网络、互联网设备的速度越来越快,这意味着:a.服务器资源除了运行业务,还可以预留足够的CPU、内存资源来运行存储软件。存储软件和业务一起运行,减少了设备量和功耗,本地读取也提高了I/O访问效率。这在几年前是不可能的,因为CPU和内存太有限了。b.网络互连越来越快,无论是10Gigabit、40GbEthernet,还是Infiniband(最新的宽带技术),使得我们的软件可以互连独立的存储设备,通过分布式文件系统形成共享文件系统。存储池供上层应用使用。C。如果说SSD等硬件厂商让单个存储设备运行得更快,那么我们软件的意义在于让大量的这些存储设备协同工作,提供无穷无尽的整体性能和容量。