揭秘AI基础设施堆栈以更快地部署AI项目在大规模环境中轻松部署AI项目。在这个快速发展的环境中,简单地评估不断扩大的人工智能工具和服务生态系统是一项重大挑战,这些工具和服务通常是为不同的用户和目的设计的。为了应对这一挑战,我们创建了AIInfrastructureStack,这是一张生态地图,直观地展示了AI技术堆栈的层次和每一层内的供应商,更清晰地阐明了AI生态。在英特尔投资,这有助于我们确定我们认为会对人工智能的未来产生最大积极影响的投资,但它也有助于开发人员和工程师确定他们以最高效的方式交付人工智能项目所需的资源。图1.AI基础架构堆栈该技术基础架构堆栈侧重于满足开发AI的基本需求的横向解决方案,无论其部署在何种类型的公司或行业。我们不包括针对特定行业的纵向解决方案。该堆栈由7层组成,每一层分为两部分,其中包括为非常不同的工作负载、数据量、计算和内存要求构建的解决方案,以及SLA:探索/训练解决方案,它通过算法处理数据并创建模型。生产/推理解决方案使用经过训练的模型在需要建议时做出响应——例如在电子商务网站上识别“您可能还喜欢”的产品建议,或者决定何时踩下自动驾驶汽车的刹车。连接一切的是企业的分布式引擎——跨计算资源分配工作负载的计算平台。堆栈中的层数为:硬件。正确的硬件是在数据中心运行的训练解决方案以及在数据中心和边缘设备中运行的推理解决方案的基础。软件加速器。这些是用于优化机器学习(ML)库的编译器和低级内核。图书馆。这些是用于训练ML模型的库。数据科学框架。该层包括将库与其他工具集成的工具。编排。这些工具打包、部署和管理ML训练和模型推理的执行。没有这一层,DevOps就不可能实现。自动化。这些工具简化并部分自动化了为模型训练和其他ML任务准备数据的工作。独立的。这一层的工具将自动化构建、部署或维护ML模型的各个方面。这就是AI训练AI的地方。各层级的工具和服务加速人工智能的开发和部署;然而,与所有新兴技术一样,在决定使用哪些工具和服务时需要权衡取舍。例如,AutoML可以加快ML模型的开发,但训练可能不如自定义模型准确。由用户根据项目的需要来决定每一层使用哪些工具和服务。图2.AI基础架构堆栈更高层的详细视图。在AI价值链的顶端是编排、自动化和自治层——自治层通过让任何人(而不仅仅是数据科学家)更容易访问和使用它,对AI的民主化变得更加关键。虽然这些层是整个堆栈的最新层,其中AI工具和服务支持AI的持续集成和持续部署(CI/CD),但请注意:创新正在整个堆栈中发生——打破新的界限,提高可用性,并引入AI到新的社区。最后,我们使用工具、服务和公司(许多开源)的示例填充模型。它们不包括市场上的所有选项,它们是考虑AI解决方案的示例,每一层都有一组可靠的选项。图3.AI基础架构堆栈中工具、服务和公司的代表性示例。人工智能不再处于起步阶段。对于寻求使用AI改进产品和服务,或提高效率和改进决策的公司来说,现在有一个丰富的工具和服务生态系统,可用于构建、部署和监控ML和AI模型。密切关注该领域的所有动态以及组件如何组合在一起可以成就或破坏您的AI项目。原标题:DemystifyingtheAIInfrastructureStack,作者:AssafAraki
