当前位置: 首页 > 网络应用技术

用嘈杂的标签学习

时间:2023-03-06 11:30:13 网络应用技术

  上图是三型训练范围。在每个迷你批次上,选择一个相对较小的损失样本,每个网络的损失较小,这被视为有用的知识(有用的知识),然后使用有用的知识。其他两个是自我发展的方法。

  特定算法如下:

  假设这两个网络是$ f $(参数为$ w_f $)和$ g $(参数为$ wg $)构建迷你批次,并迭代培训$ n {max} $ times.SELECT $ r的样本(t)从迷你批次中的$百分比,并将其记录为$ bar {d} _f $和$ bar {d} _W $,步骤4,55。g $,并使用$ bar {d} _w $训练和更新$ f $,步骤6,7。$ r(t)$正在减少作为训练步骤,也就是说,他是动态的,有用的知识每个选择都会变得越来越少。

  在上述算法中,需要解释两个重要问题:

  第一个问题的解释:首先,当标签正确时,少量损失样本更可能具有正确的标签。因此,如果我们仅采样了培训师的低损失样本,那么我们应该抵抗噪声标签。在时期开始时的模型,因此该模型具有在训练开始时过滤噪声数据的能力。但是,随着训练的增加,该模型将逐渐拟合这些噪声数据。因此,为了使用此法律,算法在最初的迷你批次中选择更有效的数据,并在进行培训时逐渐减少。对于第二个问题:想象一下,当学生检查自己的测试论文时,很难找到错误,因为他们对自己的个人偏见回答s,但是当要求帮助同伴帮助检查自己的测试论文时,更容易使其更容易找到错误。从基础上,不同的分类器可以学习不同的决策 - 制定界限并具有不同的学习能力。因此,当我们训练模型时在噪声数据上,我们还希望它们具有不同的噪音能力。这激发了我们交换小样本,也就是说,从$ g $(或$ f $)选择的小批次样本中的参数已从$ g更新$(或$ f $)。此过程类似于共同传播。如果所选的示例嘈杂,则两个网络将适应另一个网络的训练错误。总的来说,网络中的错误不会直接返回自己。与自我进化的方式相比,我们希望共同教学方法可以处理更多的噪声数据。

  【参考:】纸

  研究三个步骤:

  上图是自信学习的框架。以下详细介绍了这三个步骤:

  1.计数

  将噪声标签定义为$ hat {y} $,即初始标签(也许是手册标签),但可能存在错误。真正标签的定义是$ y^*$,但实际上我们确实如此没有真正的标签。通常,我们可以通过交叉验证估算真正的标签1.样本总数为$ n $,类别总数为$ m $。

  估计的联合分配步骤如下:

  我们的目的是估计$ hat {q} _ {hat {y},y^*} $的组合概率分布来描绘类别的噪声。通过计算混淆矩阵中的数量,然后校正,然后每个标签的标签编号标签,

  2.清洁

  在噪声标签和真实标签的组合分布中

  3.重新传播

  滤除错误示例后,根据联合分配$ q {hat {y},y^} $:$ $ $ frame {1} {(hat {y} = i | y^= i)} = frac {q {y^} [i]} {q_ {hat {y},y^},y^} [i] [i] [i]} $ $

  其中:$ q {y^*} [i] = sum {j = i..m} {q_ {hat {y},y^*},y^*} [j] [i]} train。

  [参考:]清洁行参考1

  (待续...)