在这篇文章中,我们将讨论机器学习中回归和分类的各种指标。我们总是想到为一个好的机器学习算法建模所涉及的步骤。第一步是评估模型质量的指标。当我们拟合模型并做出预测时,我们总是试图了解错误和准确性。本文将尝试提供和解释回归和分类中的各种错误度量。有一些标准可以评估模型的预测质量,如下所示:度量函数:我们将在本文中进行研究。EstimatorScoringMethod:该方法有一个评分方法,可以评估问题的解决方案。评分参数:评分参数告诉估计器选择要用模型grid_search.GridSearchCV和cross_validation.cross_val_score进行评估的指标估计器的基本定义:它是一个函数或方程,可以在实际数据点上预测更准确的建模点。Thingstoknow技能评估方法有两点需要注意,如下:第一,有些方法以score这个词结尾,意思是这个值来自哪里,它决定了groundtruth。在这种情况下,数字越大越好。第二,如果单词以错误或丢失结尾。在这种情况下,数字越低越好。回归指标用于评估回归性能的指标如下:ExplainedVarianceScore:该指标评估数据点的变化或分散。该指标的公式如下:Python示例:#importvariancescorefromsklearnfromsklearn.metricsimportexplained_variance_scoretrue_values=[5,2.5,3,6]predicted_values=[4.5,2.9,3,7]explained_variance_score(true_values,predicted_values)#输出:0.85251908396946562。最大误差:该指标将计算真实值和预测值之间的最差值。最大误差的计算公式如下:python中的例子fromsklearn.metricsimportmax_errortrue_values=[5,2.5,3,6]predicted_values=[4.5,2.9,3,8]max_error(true_values,predicted_values)#output:23。平均绝对误差:该指标计算真实值和预测值之间差异的平均误差。该指标对应于l1范数损失。此指标的公式如下所示:python中的示例fromsklearn.metricsimportmean_absolute_errortrue_values=[5,2.5,3,6]predicted_values=[4.5,2.9,3,7]mean_absolute_error(true_values,predicted_values)#output:0.4753.meansquarederror:此指标计算二次误差或损失。公式如下所示:python中的示例fromsklearn.metricsimportmean_squared_errortrue_values=[5,2.5,3,6]predicted_values=[4.5,2.9,3,7]mean_squared_error(true_values,predicted_values)#output:0.35254。R平方分数:此度量标准根据均值或估计器(例如拟合回归线)计算数据的分布。通常称为“决定系数”。该指标的公式如下:python中示例fromsklearn.metricsimportr2_scoretrue_values=[5,2.5,3,6]predicted_values=[4.5,2.9,3,7]r2_score(true_values,predicted_values)#output:0.8277862595419847分类指标评价分类effect指标如下:AccuracyScore:该指标计算真实值与预测值的准确度,返回score的分数,否则,如果归一化参数为FALSE,则返回true的总数预测值。公式如下:python中的例子fromsklearn.metricsimportaccuracy_scoretrue_values=[5,2,3,6]predicted_values=[4,3,3,6]accuracy_score(true_values,predicted_values)2.Categoricalreport:按这个metric计算的报告包含问题的分类精度、召回率和F1分数。Python示例fromsklearn.metricsimportclassification_reporttrue_values=[3,4,3,6]predicted_values=[4,3,3,6]target_names=['Apple','Orange','Kiwi']print(classification_report(true_values,predicted_values,target_names=target_names))3.HingeLoss:这个loss计算数据点和模型预测点之间的平均距离。它也被用在SVM算法中以获得最大边距。公式如下所示:python中的示例fromsklearnimportsvmfromsklearn.metricsimportthinge_lossfromsklearn.svmimportLinearSVC#datasetinxandyvaluesx_values=[[3],[2]]y_values=[-1,1]#usinglinearSVCmodelsvm_linear=svm.LinearSVC(therandom_state=0)#fittingx_values,y_values)LinearSVC(random_state=0)#makingdecisionpredictionpred_decision=svm_linear.decision_function([[-2],[3],[0.5]])hinge_loss([-1,1,1],pred_decision)#output:1.333372678152829结论:这些是一些用于评估回归和分类模型性能的指标。基于回归、二元类和多类度量的分类有多种度量。
