上图是三型训练范围。在每个迷你批次上,选择一个相对较小的损失样本,每个网络的损失较小,这被视为有用的知识(有用的知识),然后使用有用的知识。其他两个是自我发展的方法。
特定算法如下:
假设这两个网络是$ f $(参数为$ w_f $)和$ g $(参数为$ wg $)构建迷你批次,并迭代培训$ n {max} $ times.SELECT $ r的样本(t)从迷你批次中的$百分比,并将其记录为$ bar {d} _f $和$ bar {d} _W $,步骤4,55。g $,并使用$ bar {d} _w $训练和更新$ f $,步骤6,7。$ r(t)$正在减少作为训练步骤,也就是说,他是动态的,有用的知识每个选择都会变得越来越少。
在上述算法中,需要解释两个重要问题:
第一个问题的解释:首先,当标签正确时,少量损失样本更可能具有正确的标签。因此,如果我们仅采样了培训师的低损失样本,那么我们应该抵抗噪声标签。在时期开始时的模型,因此该模型具有在训练开始时过滤噪声数据的能力。但是,随着训练的增加,该模型将逐渐拟合这些噪声数据。因此,为了使用此法律,算法在最初的迷你批次中选择更有效的数据,并在进行培训时逐渐减少。对于第二个问题:想象一下,当学生检查自己的测试论文时,很难找到错误,因为他们对自己的个人偏见回答s,但是当要求帮助同伴帮助检查自己的测试论文时,更容易使其更容易找到错误。从基础上,不同的分类器可以学习不同的决策 - 制定界限并具有不同的学习能力。因此,当我们训练模型时在噪声数据上,我们还希望它们具有不同的噪音能力。这激发了我们交换小样本,也就是说,从$ g $(或$ f $)选择的小批次样本中的参数已从$ g更新$(或$ f $)。此过程类似于共同传播。如果所选的示例嘈杂,则两个网络将适应另一个网络的训练错误。总的来说,网络中的错误不会直接返回自己。与自我进化的方式相比,我们希望共同教学方法可以处理更多的噪声数据。
【参考:】纸
研究三个步骤:
上图是自信学习的框架。以下详细介绍了这三个步骤:
1.计数
将噪声标签定义为$ hat {y} $,即初始标签(也许是手册标签),但可能存在错误。真正标签的定义是$ y^*$,但实际上我们确实如此没有真正的标签。通常,我们可以通过交叉验证估算真正的标签1.样本总数为$ n $,类别总数为$ m $。
估计的联合分配步骤如下:
我们的目的是估计$ hat {q} _ {hat {y},y^*} $的组合概率分布来描绘类别的噪声。通过计算混淆矩阵中的数量,然后校正,然后每个标签的标签编号标签,
2.清洁
在噪声标签和真实标签的组合分布中
3.重新传播
滤除错误示例后,根据联合分配$ q {hat {y},y^} $:$ $ $ frame {1} {(hat {y} = i | y^= i)} = frac {q {y^} [i]} {q_ {hat {y},y^},y^} [i] [i] [i]} $ $
其中:$ q {y^*} [i] = sum {j = i..m} {q_ {hat {y},y^*},y^*} [j] [i]} train。
[参考:]清洁行参考1
(待续...)