,一种用于机器学习模型的高性能推理引擎微软宣布开放ONNXRuntime,这是一种用于Linux、Windows和Mac平台的ONNX格式的机器学习模型的高性能推理引擎。ONNX运行时允许开发人员在任何支持的框架中训练和调整模型,在云端和边缘具有高性能。微软也在将其内部使用的ONNXRuntime用于Bing搜索、BingAds、Office生产力服务等。ONNX为AI框架生态系统带来互操作性,提供可扩展计算图模型的定义,以及定义内置运算符和标准数据类型。ONNX使模型能够在一个框架中进行训练,然后转移到另一个框架中进行推理。目前,Caffe2、CognitiveToolkit和PyTorch都支持ONNX模型。在此处查看GitHub上的开放式神经网络交换(ONNX)运行时。
