sklearn.decomposition.PCA参数速查手册调用sklearn.decomposition.PCA(n_components=None,copy=True,whiten=False,svd_solver='auto',tol=0.0,iterated_power='auto',random_state=None)参数n_components说明PCA算法中要保留的主成分个数n,即保留的特征个数n设置为int或string,默认为None,以及所有组件都被保留。赋值为int,比如=1,会将原始数据降维,赋值为string,比如'mle',会自动选择特征数n,这样就可以得到需要的variancepercentagewhiten白化,使每个特征具有相同的方差。设置bool,默认为False。如果PCA降维后还有后续的数据处理动作,可以考虑白化svd_solver定义奇异值分解SVD方法。设置autoPCA类自动选择以下三种算法。Randomized适用于数据量大、多维数据和主成分比例低的PCA降维传统意义上的fullSVD,使用scipy库的对应实现arpack直接使用scipy库的sparseSVD实现,类似theapplicablescenarioofrandomizedCopyparaphraserepresentation运行算法时是否复制原始训练数据。如果设置为True,运行PCA算法后原始训练数据的值不会改变,因为操作是在原始数据的副本上进行的;如果为False,运行PCA算法后,原始训练数据的值会发生变化,因为对原始数据进行了降维计算。tolstopsolutionstandard,float类型,默认值为0当svd_solver选择'arpack'时,运行SVD算法的容错率iterated_powerint类型或str类型,默认值为'auto'当svd_solver选择'randomized'时,其运行SVD算法的迭代次数random_stateint类型,默认为None伪随机数生成器的种子,用于数据洗牌时的概率估计属性components_return方差最大的分量价值。方差值越大,主成分越重要explained_variance_ratio_各主成分降维后的方差值占总方差值的比例,该比例越大,主成分越重要singular_values_corresponds各成分的奇异值mean_empiricalmeanoffeaturesestimatedfromthetrainingset=X.mean(axis=0)n_components_returns保留分量的个数nn_features_训练数据的特征个数n_samples_训练数据的样本个数noise_variance_返回噪声协方差方法fit(self,X[,y])使用数据X训练PCA模型fit_transform(self,X[,y])使用X训练PCA模型,返回降维后的数据get_covariance(self)计算数据协方差(使用生成模型)get_params(self[,deep])获取PCA的参数get_precision(self)计算数据精度矩阵(使用生成model)inverse_transform(self,X)将降维后的数据转化为原始数据,但不一定完全一样*params)设置PCA参数transform(self,X)将数据X转化为降维后的数据。模型训练好后,也可以使用transform方法对新输入的数据进行降维。OpenWrite发布!
