就线性回归而言,逻辑回归是输出层上sigmoid的激活函数处理,因此线性加权并总结0,1缩小。它的建模过程也分为四个步骤:
2.1.1第二分类问题的模型选择(0-1问题),我们可以简单地输出结果,因为标签值1的概率为1,模型结构图如下:
有封装的Sigmoid函数,与我们手动定义相同
2.1.3定义逻辑回归模型函数逻辑返回,然后向前扩展,我们在sigmoid处理中给出x,w,高级矩阵乘法,
2.1.4由于Sigmoid Euttry结果的连续性而定义相应的分类函数,当用于区分管道分类时,我们需要将连续值转换为确定的类别,该类别可以定义相应的分类函数
与布尔值和数值之间的转换。
2.1.5定义准确率函数2.1.6定义损失功能2.1.8培训模型
可以看出,迭代三轮回报的准确性仍在增加。
增加迭代次数后,损耗函数接近最小值点。
2.2.1增加数据离散程度并增加内部离散程度,验证模型是否影响模型
随着迭代次数的增加,准确率保持在66.7%左右。随着数据条件变得复杂,离散程度变得更大,并且同一模型的准确性发生了很大变化。这种情况需要其他模型优化方法来优化方法。
使用Pytorch中的功能和类来构建逻辑回归的快速构造。
2.3.1定义核心参数2.3.2数据准备2.3.3定义模型2.3.4定义损失功能2.3.5定义优化方法2.3.6模型培训2.3.7查看模型培训结果
2.3.8查看模型参数
2.3.9计算横向渗透损失
在大多数情况下,对交叉渗透损失没有明确的判断,并且更准确的是基于准确率。不通过Sigmoid处理的准确速率函数的定义
2.3.10模型调试增加了迭代次数,并检查准确率是否改变
与以前相同,增加数据复杂性测试分类性能
def logistic(x,w):
返回sigmoid(Torch.mm(x,w))3
像上面一样,精度在0.64-0.65之间被震惊。