当前位置: 首页 > 科技观察

机器学习中的参数与非参数方法

时间:2023-03-18 01:39:56 科技观察

介绍在我们之前的文章中,我们介绍了统计学习中预测和推理之间的区别。虽然这两种方法的主要区别在于最终目标,但我们都需要估计一个未知函数f。换句话说,我们需要学习一个将输入(即一组自变量X)映射到输出(即目标变量Y)的函数,如下图所示。Y=f(X)+ε为了估计未知函数,我们需要在数据上拟合一个模型。我们试图估计的函数的形式通常是未知的,因此我们可能必须应用不同的模型来获得它,或者对函数f的形式做出一些假设。通常,此过程可以是参数化的或非参数化的。在今天的文章中,我们将讨论机器学习背景下的参数和非参数方法。此外,我们将探讨它们的主要区别以及它们的主要优点和缺点。参数方法在参数方法中,我们通常对函数f的形式做出假设。例如,您可以假设未知函数f是线性的。换句话说,我们假设函数是这样的。f(X)=β?+β?X?+…+β?X?其中f(X)是待估计的未知函数,β是待学习的系数,p是自变量的个数,X是相应的输入。现在我们已经对我们想要估计的函数的形式做出了假设,并选择了一个符合这个假设的模型,我们需要一个学习过程来最终帮助我们训练模型和估计系数。机器学习中的参数化方法通常采用基于模型的方法,我们对要估计的函数的形式做出假设,然后根据该假设选择合适的模型来估计参数集。参数方法的最大缺点是我们所做的假设可能并不总是正确的。例如,您可以假设函数的形式是线性的,但事实并非如此。因此这些方法涉及不太灵活的算法并且通常用于解决一些不复杂的问题。参数方法非常快,而且它们需要的数据也少得多(下一节将详细介绍)。此外,由于参数方法不太灵活,但基于我们所做的假设,它们更容易解释。机器学习中的参数化方法包括线性判别分析、朴素贝叶斯和感知器。非参数方法非参数方法通常是指一组算法,这些算法不对要估计的函数的形式做出任何基本假设。由于没有做出任何假设,该方法可以估计任何形式的未知函数f。非参数方法往往更精确,因为它们寻求最适合数据点。但这是以进行大量观察为代价的(准确估计未知函数f所必需的)。并且这些方法在训练模型时往往效率较低。另一个问题是非参数方法有时会引入过度拟合,因为由于这些算法更灵活,它们有时会以一种不能很好地泛化到新的、看不见的数据点的方式学习错误和噪声。非参数方法非常灵活,可以带来更好的模型性能,因为没有对基础函数做出任何假设。机器学习中非参数方法的一些示例包括支持向量机和kNN。总结在今天的帖子中,我们讨论了机器学习背景下的参数化和非参数化方法及其优缺点。参数方法往往不太灵活和准确,但更易于解释,而非参数方法往往更灵活(因此适用于更复杂的问题)和准确但更难解释。尽管参数方法不太灵活,有时不太准确,但它们在许多用例中仍然有用,因为在更简单的问题中使用非常灵活的非参数方法会导致过度拟合。