岭回归sklearnAPI参数快速参考手册solver='auto',random_state=None)Parametersalpha解释:正则化项系数,值越大说明正则化设置越强:Alpha对应其他线性模型(如Logistic回归或LinearSVC)中的C^-1。如果传递数组,则假定惩罚是特定于目标的。因此,它们必须在数量上对应。fit_intercept解释:是否计算模型的截距设置:bool类型,可选,默认True;如果使用集中数据,可以考虑设置为False,不考虑截距normalize解释:是否对数据进行标准化,如果不计算截距,忽略该参数设置:bool类型,可选,默认False,推荐把标准化工作放在训练模型之前,通过设置sklearn.preprocessing.StandardScaler来实现,这里设置为false;当fit_intercept设置为false时,该参数会被自动忽略。如果为True,回归器会对输入参数进行标准化:减去平均值,除以对应的二范数copy_X解释:是否复制X的设置:bool类型,可选,默认True;如果为false,则通过中心归一化后,将新数据覆盖在原始数据X上。max_iter解释:共轭梯度求解器的最大迭代次数,需要与求解器配合使用。设置:solver为sparse_cg和lsqr时,默认为scipy.sparse.linalgOK,solver为sag时,默认值为1000tol解释:计算精度设置:float类型,默认=1e-3solver解释:solver{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}设置:aotu:根据数据类型自动选择solversvd:使用X的奇异值分解计算岭系数,奇异矩阵比cholesky更稳定cholesky:使用标准scipy.linalg.solve函数获取收敛系数sparse_cg:使用来自scipy.sparse.linalg.cg的Conjugategradientsolver。比cholesky更适合大规模数据(可以设置tol和max_iter)lsqr:专用正则化最小二乘法scipy.sparse.linalg.lsqrsag:随机平均梯度下降;仅当fit_intercept为True时支持密集数据传奇:下垂改进,无偏版本。使用SAGA梯度下降法可以使模型快速收敛random_state解释:随机数生成器的种子,仅在solver="sag"时使用线性模型的截距,一维情况下n_iter_实际迭代次数Methodsfit(self,X,y[,sample_weight])输入训练样本数据X,对应标记yget_params(self[,deep])返回参数值函数内linear_model.Ridge()predict(self,X)使用学习到的线性分类器预测markscore(self,X,y[,sample_weight])返回模型的拟合优度判断系数set_params(self,**params)设置函数linear_model.Ridge()的内部参数本文由博客发布平台OpenWrite发布!
