深度学习之所以在今天取得成功,大量的数据是必不可少的必要条件。我们训练的模型都是吃过的,见过的,才有这么好的表现。然而,在实际情况中收集到足够的数据并不容易。今天我们就这个问题学习Few-shotLearning。上面的公式是用来估计模型的,通常我们给函数h输入一个公式x,这个函数h是模型学习得到的。那么这个L代表预测值和真实值的差值,这个差值在整个数据样本上进行积分,来评价这个函数h的拟合程度。上式可用于求出R(h)最小化时对应的函数h。实际上不可能遍历所有的模型和参数,所以需要限制函数集,从而缩小模型在整个空间的搜索范围。这里H的意思是我们定义一个函数集,也就是在整个空间中划分出某个空间,模型搜索问题就会局限于这个空间。函数集H可以是VGG、ResNet等,函数集越复杂,函数的表达能力越强,整个空间的范围越大,浅蓝色圆圈越大,搜索时间越长.事实上,样本的概率分布也是未知的,我们收集的样本只是数据的一部分。所以现在需要将最优函数的搜索限制在H空间内。我们已经知道数据的概率p(x,y)分布也是未知的。我们只能用一定数量的样本来估计总体分布,这样做当然有误差。由于整个数据集的概率分布未知,因此使用I样本来表示整个数据集。然后使用这些数据来训练模型。然后在这样的数据集上在有限的空间中搜索一个最优函数,用绿色方块表示搜索到的模型在整个搜索空间中的位置。接下来从黄色开始在搜索空间中搜索得到函数h下标l和整个函数在i样本的数据集上。然后橙色虚线表示真实模型和我们估计的模型之间的差距。其实这里的误差来自逼近误差和估计误差。第一步是选择功能集,那么什么是功能集呢?那么比如说VGG、ResNet或者DenseNet都可以看做是一个函数集H,那么整个算法中我们能够控制的就是I和H。所以我们可以通过增加H的复杂度来扩大H空间,增加I,但是通常我们实际能收集到的I会很小。所以今天过拟合最直接的方法就是增加数量,也就是增加I(数据),也就是给H增加一些约束空间,减少搜索空间(模型),给一个合理的初值(算法)
