AmazonSageMaker是一个完全托管的平台,可帮助开发人员和数据科学家快速轻松地构建、训练和部署任何规模的机器学习模型。AmazonSageMaker消除了通常会阻止开发人员使用机器学习的所有障碍。大多数开发人员经常发现机器学习比实际困难得多,因为构建和训练模型然后将其部署到生产环境的过程过于复杂和缓慢。首先,您需要收集和准备训练数据,以发现哪些元素在您的数据集中很重要。然后你需要选择要使用的算法和框架。一旦你决定了一种方法,你需要教模型如何通过训练进行预测,这是计算密集型的。接下来,您需要调整模型以提供最佳预测,这通常需要繁琐的手动工作。在开发出经过全面训练的模型后,您需要将模型与您的应用程序集成,并将应用程序部署在可扩展的基础设施上。所有这一切都需要大量的专业知识、大量的计算和存储资源,以及大量的时间来试验和优化流程的各个方面。鉴于此,大多数开发人员发现这一切都不可能也就不足为奇了。AmazonSageMaker消除了阻碍开发人员成功完成每个步骤的复杂性。AmazonSageMaker包括可一起使用或单独使用的模块,用于构建、训练和部署机器学习模型。工作原理构建AmazonSageMaker提供了快速连接到训练数据所需的一切,使构建ML模型并为训练做好准备变得容易,还可以轻松地为您的应用程序选择和优化最佳算法和框架。AmazonSageMaker包括托管的Jupyter笔记本,因此您可以轻松浏览和可视化存储在AmazonS3中的训练数据。您可以直接连接到S3中的数据,或使用AWSGlue将数据从AmazonRDS、AmazonDynamoDB和AmazonRedshift移动到S3以在笔记本中进行分析。为帮助您选择算法,AmazonSageMaker包含最常用的机器学习算法,这些算法已预安装并经过优化,可提供比在其他任何地方运行它们快10倍的性能。此外,AmazonSageMaker已预先配置为在Docker容器中运行TensorFlow、ApacheMXNet和Chainer。您还可以将这些开源容器下载到您的本地环境中,然后使用AmazonSageMakerPythonSDK在本地模式下测试您的脚本,然后再使用AmazonSageMaker在生产中训练或托管模型。您也可以选择使用自己的框架。训练只需单击一下,您就可以在AmazonSageMaker控制台中开始训练您的模型。AmazonSageMaker为您管理所有底层基础设施,并轻松扩展到PB级的训练模型。为了使训练过程更快更轻松,AmazonSageMaker可以自动调整您的模型以实现最高的准确性。部署训练和调整模型后,AmazonSageMaker可以轻松将其部署到生产环境中,以便您可以开始对实时或批量数据生成预测(称为推理的过程)。AmazonSageMaker将您的模型部署在跨多个可用区的AmazonSageMakerML实例的自动扩展集群上,以实现高性能和可用性。AmazonSageMaker还包括内置的A/B测试功能,可帮助您测试模型并试验不同版本以获得最佳结果。AmazonSageMaker负责机器学习的繁重工作,因此您可以快速轻松地构建、训练和部署机器学习模型。优势使用机器学习快速部署到生产AmazonSageMaker大大减少了训练、调整和部署机器学习模型所需的时间。AmazonSageMaker管理并自动化所有复杂的训练和调整技术,因此您可以快速将模型部署到生产中。选择任何框架或算法AmazonSageMaker支持所有机器算法和框架,因此您可以使用您已经熟悉的技术。预装ApacheMXNet、TensorFlow和Chainer,AmazonSageMaker提供大量内置的高性能机器学习算法。如果你想使用其他框架或算法进行训练,你可以在Docker容器中应用你自己的框架或算法。一键式训练和部署借助AmazonSageMaker,您只需在控制台中单击一次或进行简单的API调用即可开始训练模型。训练完成并准备好部署模型后,您只需在AmazonSageMaker控制台中单击一下即可启动模型。轻松与您现有的工作流集成AmazonSageMaker设计有三个模块,可以一起使用或单独用作您可能拥有的任何现有ML工作流的一部分。轻松访问经过训练的模型AmazonSageMaker提供了一个可以从任何应用程序调用的HTTPS端点,从而可以轻松地将机器学习模型集成到您的应用程序中。针对速度进行了优化AmazonSageMaker预配置了最新版本的TensorFlow、ApacheMXNet和Chainer,以及带有NVIDIAGPU的CUDA9库,以实现最佳性能。借助运行NVIDIAVoltaV100GPU的AmazonSageMakerP3实例,AmazonSageMaker使您能够以无与伦比的速度训练深度学习模型。
