当今的企业组织正在大规模采用AI人工智能应用来分析呈指数级增长的海量数据,这不仅要求极高,而且需要有强大的并行处理功能,所以原来标准化的CPU已经不能完全完成很多AI分析任务了。有鉴于此,当企业数据中心正在接近或达到服务器性能瓶颈极限时,应采取哪些有效的应对措施呢?在这篇文章中,我们将帮助您的企业数据中心为服务器准备和处理AI应用。企业本地环境和云基础设施施加的限制。同时,我们也采访了数据中心行业的同仁,请他们提供相关的指导和建议,包括强调企业数据中心和服务器供应商紧密合作的重要性,谁能尽快为您的企业提供Move从早期阶段到稳定的高级生产阶段,利用AI功能提供指导。今天的组织正在积极应对许多变量,以确定他们应该在使用人工智能(AI)应用程序时采取什么立场,这些应用程序在深度学习的支持下可以提供新的见解。而这个领域目前充满了巨大的商机,如果不采取积极的行动,可能会演变成一场商业灾难,因为该公司的竞争对手正在收集和分析大量以前无法获得的数据信息,以扩大其客户群。大多数企业组织已经意识到这一严峻挑战,因此他们的业务部门、IT人员、数据科学家和开发人员都在共同努力,以确定企业的人工智能战略。在某种程度上,采用人工智能战略的企业将逐渐经历更先进的人工智能应用领导者过去所经历的:他们的服务器性能会遇到瓶颈。人工智能应用,尤其是深度学习系统,可以分析呈指数级增长的海量数据信息,但这些系统的要求非常高,需要具备强大的并行处理能力,因此已经有越来越多的标准化CPU问世。无法再充分执行这些AI任务。早期和高级AI用户在某个时候将不得不彻底改造他们的服务器基础设施,以实现所需的相对性能。因此,IDC建议正在开发AI功能或扩展现有AI功能的组织以严格控制的方式解决此服务器性能瓶颈。在充分掌握相关细节的前提下,实施下一步的基础设施迁移很重要。此外,我们建议他们确保与他们的服务器供应商密切合作,这些供应商可以引导企业客户从早期阶段进入稳定的高级生产阶段,在那里他们可以充分利用AI功能。打破在数据中心服务器基础设施上运行AI的瓶颈IDC发现,大多数在概念验证(POC)测试或生产模式下拥有AI和深度学习应用的企业都在某个时刻达到了“服务器基础设施瓶颈”。“约束”级别——有时在这些企业迁移到不同的服务器基础设施之后,基础设施瓶颈限制的问题会不止一次出现。IDC采访了一些组织,了解他们开始在现有本地服务器基础设施上运行AI应用程序时的体验。77.1%的受访者表示,他们在内部服务器部署基础设施上运行AI遇到了一个或多个限制。在采用认知软件的云用户中,90.3%的人遇到了这种限制。下面的表1列出了与在本地服务器环境和云基础设施中运行AI应用程序相关的限制。表1:运行AI应用的基础设施瓶颈限制(按优先级排序)来源:《认知服务器基础架构调查》6月,IDC正是因为这些基础设施瓶颈的出现,让很多企业迅速经历了代际转移。尽管AI应用和深度学习的兴起只有几年时间,但IDC发现,22.8%的企业已经采用第三代服务器基础架构来运行其AI应用,而37.6%的企业正在使用第二代服务器基础架构,39.6%的企业正在使用第一代服务器基础设施。以上这些调查百分比表明,当今的企业客户正在寻找合适的基础架构。下面的表2列出了AI服务器基础设施最常见的世代。表2:最常见的AI服务器基础架构世代(排序)来源:《认知服务器基础架构调查》2017年6月,IDC转向性能更高(通常采取的最常见措施)、更大I/O带宽和系统加速器的处理器一个合理的决定。但数据也显示出理想配置的不确定性。一些企业试图横向扩展和扩大规模;其他人则相反。其他一些迁移从虚拟机开始,然后移动到专用服务器,而另一些则相反。这些相互矛盾的举动并不像看起来那么奇怪。今天的企业组织不仅在试验人工智能软件,也在试验基础设施。一些企业已经从横向扩展配置开始,随着解决方案的成熟,他们决定需要更高的性能,这些性能可以在数据中心现有的横向扩展系统中获得。其他人在扩展系统的一个分区上启动了POC,并决定在进入下一阶段时将解决方案转移到单路或双路服务器集群。同样,一个解决方案可能已经在虚拟机中开发,然后迁移到专用服务器,以便在稍微隔离的环境中进一步开发(许多企业更喜欢在早期阶段这样做)。IDC认为,所有这些迁移对于早期试验和开发都是有意义的。利用现有环境意味着推迟对新服务器基础设施的投资,直到企业弄清楚什么是最合适的配置。然而,一旦应用程序接近运行并准备好投入生产,就需要及时做出合理的基础架构决策,以避免遇到基础架构瓶颈。根据已经运行AI应用的企业用户的反馈,我们认为认知应用的理想基础架构配置是一组带加速器的单路或双路服务器。加速器在稍后阶段添加。中型系统的集群也是可能的,但只有在工作负载快速扩展时才有意义。其他配置也是可能的。从对企业用户的研究中可以清楚地看出,超融合系统和虚拟机已被证明对认知应用程序的影响较小。
