当前位置: 首页 > 网络应用技术

深度学习逻辑回报建模

时间:2023-03-07 18:44:26 网络应用技术

  就线性回归而言,逻辑回归是输出层上sigmoid的激活函数处理,因此线性加权并总结0,1缩小。它的建模过程也分为四个步骤:

  2.1.1第二分类问题的模型选择(0-1问题),我们可以简单地输出结果,因为标签值1的概率为1,模型结构图如下:

  有封装的Sigmoid函数,与我们手动定义相同

  2.1.3定义逻辑回归模型函数逻辑返回,然后向前扩展,我们在sigmoid处理中给出x,w,高级矩阵乘法,

  2.1.4由于Sigmoid Euttry结果的连续性而定义相应的分类函数,当用于区分管道分类时,我们需要将连续值转换为确定的类别,该类别可以定义相应的分类函数

  与布尔值和数值之间的转换。

  2.1.5定义准确率函数2.1.6定义损失功能2.1.8培训模型

  可以看出,迭代三轮回报的准确性仍在增加。

  增加迭代次数后,损耗函数接近最小值点。

  2.2.1增加数据离散程度并增加内部离散程度,验证模型是否影响模型

  随着迭代次数的增加,准确率保持在66.7%左右。随着数据条件变得复杂,离散程度变得更大,并且同一模型的准确性发生了很大变化。这种情况需要其他模型优化方法来优化方法。

  使用Pytorch中的功能和类来构建逻辑回归的快速构造。

  2.3.1定义核心参数2.3.2数据准备2.3.3定义模型2.3.4定义损失功能2.3.5定义优化方法2.3.6模型培训2.3.7查看模型培训结果

  2.3.8查看模型参数

  2.3.9计算横向渗透损失

  在大多数情况下,对交叉渗透损失没有明确的判断,并且更准确的是基于准确率。不通过Sigmoid处理的准确速率函数的定义

  2.3.10模型调试增加了迭代次数,并检查准确率是否改变

  与以前相同,增加数据复杂性测试分类性能

  def logistic(x,w):

  返回sigmoid(Torch.mm(x,w))3

  像上面一样,精度在0.64-0.65之间被震惊。