当前位置: 首页 > 科技观察

如何应对部署机器学习模型的挑战_0

时间:2023-03-18 11:53:44 科技观察

如何应对部署机器学习模型的挑战轻松体验。但是,当他们需要考虑部署模型并选择扩展到生产级系统的最佳策略时,这个过程就会变得更加复杂。下面描述了机器学习模型部署的常见挑战,并讨论了如何解决其中的一些挑战:为什么成功的模型部署对AI驱动的组织至关重要?机器学习模型部署是将机器学习算法转化为网络服务的过程。而这个转化过程可以称为可操作性:一个可操作的机器学习模型,就是将其转化为可消费的服务,嵌入到现有的生产环境中。部署模型是机器学习模型工作流程中的一个基本步骤。通过部署机器学习模型,组织可以开始利用他们构建的预测和智能模型,根据模型结果开发业务实践,并将自己转变为实际的AI驱动业务。在考虑采用AI时,组织需要关注机器学习工作流程的关键组成部分,例如数据源和摄取、数据管道、机器学习模型训练和测试、如何设计新功能以及使用哪些变量来制作模型更准确。所有这些步骤都很重要。然而,考虑随着时间的推移如何使用这些模型和数据也是每个机器学习管道中的关键步骤。只有在部署和运行模型时,才能从模型的预测中获得真正的价值和商业利益。模型的成功部署对于AI驱动的组织至关重要,主要原因如下:通过部署机器学习模型,组织的团队可以使用它们,向它们发送数据并获得预测,然后可以将其输入机器学习系统以改进训练数据质量和数量。一旦启动此过程,组织将开始在生产中构建和部署更多的机器学习模型。他们可以掌握将模型从开发环境迁移到业务操作系统的可靠且可重复的方法。为什么有些组织在模型部署方面遇到困难?许多组织将人工智能的采用视为一种技术实践。但是,它更像是组织内部发起的业务驱动计划。为了成为AI驱动的组织,当前运营和了解组织业务的人员开始与负责机器学习部署工作流的团队密切合作非常重要。机器学习部署工作流程的每一步都是基于关于需要使用不同工具和服务来成功部署的特定决策(从模型训练和注册到模型部署和监控):当开始AI应用程序开发过程时,机器学习团队应该与业务伙伴互动。必须保持持续的交互,以了解与模型部署和使用步骤并行的模型实验过程。大多数组织都在努力挖掘机器学习的潜力来优化他们的运营流程,并使数据科学家、分析师和业务团队使用同一种语言。此外,机器学习模型必须根据历史数据进行训练。需要创建预测数据管道,这是一项需要多项任务的活动,包括数据处理、特征工程和优化。每个任务(从数据库的版本控制到缺失值的处理)都必须从开发环境精确地复制到生产环境。有时,开发和生产中使用的技术差异会导致部署机器学习模型的困难。组织可以使用机器学习管道来创建和管理结合机器学习阶段的工作流。例如,机器学习管道可能包括数据准备、模型训练、模型部署和推理/评分阶段。每个阶段都可以包含多个步骤,每个步骤都可以在各种计算目标上无人值守地运行。它的流水线步骤是可重用的,如果该步骤的输出没有改变,它们可以在不运行后续步骤的情况下运行。机器学习管道还允许数据科学家在机器学习工作流程的各个领域进行协作。您如何选择正确的工具来成功部署您的模型?对于希望通过人工智能改变运营方式的组织而言,构建、培训、测试和最终部署机器学习模型通常是一个乏味的过程。而且,即使经过几个月的开发可以提供基于单一算法的机器学习模型,管理团队通常也不知道他们的数据科学家是否已经创建了一个很好的模型,或者如何扩展和操作它。以下是有关组织如何为成功的部署模型选择正确工具的一些指南。此工作流将使用Azure机器学习服务进行说明,但它也可以与组织选择的机器学习产品一起使用。模型部署工作流程应基于以下三个简单步骤:1.注册模型注册模型是构成模型的一个或多个文件的逻辑容器。例如,如果一个组织将模型存储在多个文件中,则可以将它们注册为工作区中的一个模型。注册后,您可以下载或部署注册模型并接收所有注册文件。创建Azure机器学习工作区时可以注册机器学习模型。该模型可以来自Azure机器学习或其他地方。2.准备部署(指定资产、用途、计算目标)。要将模型部署为Web服务,必须创建推理配置和部署配置。推理或模型评分是部署模型用于预测的阶段,通常用于生产数据。在推理配置中,组织指定服务模型所需的脚本和依赖项。在部署配置中,指定有关如何在计算目标上提供模型的详细信息。输入脚本接收提交给部署的Web服务的数据并将其传递给模型。然后可以获取模型返回的响应并将其返回给客户端。该脚本特定于组织的模型,它必须理解模型期望和返回的数据。该脚本包含两个用于加载和运行模型的函数:init():通常,此函数将模型加载到全局对象中。该函数仅在Web服务的Docker容器启动时运行一次。run(input_data):此函数使用模型根据输入数据预测值。要运行的输入和输出通常使用JSON进行序列化和反序列化。组织还可以使用原始二进制数据,并可以在将数据发送到模型或将其返回给客户端之前转换数据。注册模型时,您需要在注册表中提供模型名称以管理模型。组织将此名称用于模型。get_model_path()检索模型文件在本地文件系统上的路径。如果注册了一组文件夹或文件,此API将返回包含这些文件的目录的路径。3.将模型部署到计算目标最后,在部署之前,组织必须定义部署配置。部署配置特定于将托管Web服务的计算目标。例如,在本地部署时,您必须指定服务接受请求的端口。结论以上描述了机器学习模型部署的一些常见挑战。它还讨论了成功部署模型以释放人工智能潜力的关键、组织在部署模型时遇到的困难以及选择正确的工具来成功部署模型。原标题:HowtoTackleChallengesDeployingMLModels,作者:RajasekharReddyPolu