文章目录

  • 一、逻辑回归的介绍
  • 二、逻辑回归与线性回归对比
  • 1.定义
  • 2.损失函数
  • 3.参数更新



一、逻辑回归的介绍

非线性回归模型二次 非线性回归模型表达式_神经网络,也就是常说的sigmoid函数,其公式为:

非线性回归模型二次 非线性回归模型表达式_机器学习_02

非线性回归模型二次 非线性回归模型表达式_线性回归_03

  非线性回归模型二次 非线性回归模型表达式_机器学习_04的函数图像如下图,它将输入压缩到0和1之间,当非线性回归模型二次 非线性回归模型表达式_深度学习_05时,输出非线性回归模型二次 非线性回归模型表达式_神经网络_06;当非线性回归模型二次 非线性回归模型表达式_神经网络_07时,输出非线性回归模型二次 非线性回归模型表达式_机器学习_08。我们还可以发现当非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_09时,梯度较大,函数变化较快;当非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_10趋于无穷时,梯度趋于0,函数变化较慢。也可以根据其导数来观察性质,非线性回归模型二次 非线性回归模型表达式_神经网络_11,当非线性回归模型二次 非线性回归模型表达式_机器学习_12趋于0和1时,即非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_10趋于无穷时,梯度较小,当非线性回归模型二次 非线性回归模型表达式_神经网络_14,即非线性回归模型二次 非线性回归模型表达式_神经网络_15时,梯度最大。

非线性回归模型二次 非线性回归模型表达式_线性回归_16


  我们知道线性回归给定输入特征后可以预测输出值,逻辑回归返回的是一个0到1之间的数,这其实是一个概率值,常用来做二分类

  假设有两类样本非线性回归模型二次 非线性回归模型表达式_线性回归_17非线性回归模型二次 非线性回归模型表达式_线性回归_18,现在给定一个样本非线性回归模型二次 非线性回归模型表达式_神经网络_19,我们可以定义样本属于类别非线性回归模型二次 非线性回归模型表达式_线性回归_17的概率为:

非线性回归模型二次 非线性回归模型表达式_线性回归_21

  那么样本属于非线性回归模型二次 非线性回归模型表达式_线性回归_18的概率显然为:非线性回归模型二次 非线性回归模型表达式_机器学习_23。我们只需要根据非线性回归模型二次 非线性回归模型表达式_深度学习_24的正负就能判断类别,当非线性回归模型二次 非线性回归模型表达式_深度学习_05时,非线性回归模型二次 非线性回归模型表达式_深度学习_26,可以判定非线性回归模型二次 非线性回归模型表达式_神经网络_19属于非线性回归模型二次 非线性回归模型表达式_线性回归_17,否则属于非线性回归模型二次 非线性回归模型表达式_线性回归_18

  令非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_30表示非线性回归模型二次 非线性回归模型表达式_线性回归_17的标签,非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_32表示非线性回归模型二次 非线性回归模型表达式_线性回归_18的标签,非线性回归模型二次 非线性回归模型表达式_线性回归_34表示预测值,非线性回归模型二次 非线性回归模型表达式_深度学习_35,这里0和1表示哪个类别的标签都可以,预先定义好就行,标签为1的样本通常称为正样本,标签为0的称为负样本


  给定非线性回归模型二次 非线性回归模型表达式_线性回归_36个样本非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_37(上标表示样本编号),下面我们需要定义一个目标函数来衡量非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_38非线性回归模型二次 非线性回归模型表达式_线性回归_34之间的差异,线性回归使用的是最小均方误差损失,这里我们使用交叉熵损失,其公式为:

非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_40

  其中
非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_41
  这里为什么要这样定义呢?在线性回归中我们希望预测值和真实值越接近越好,而真实值有无穷多个可能的取值,所以我们希望预测值和真实值的均方误差越小越好;而在二分类问题中,真实值只能取0或1,我们希望正样本输出接近1,负样本输出接近0,即正样本的似然概率越大越好。
  举一个例子,假设样本及其对应的标签如下表所示:

非线性回归模型二次 非线性回归模型表达式_神经网络_52,负样本为非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_53,那么我们可以求出似然概率为:

非线性回归模型二次 非线性回归模型表达式_机器学习_54

  我们希望非线性回归模型二次 非线性回归模型表达式_线性回归_55越大越好,这样就能使得正样本输出越来越接近1,负样本输出越来越接近0,对结果取非线性回归模型二次 非线性回归模型表达式_深度学习_56可以得到:

非线性回归模型二次 非线性回归模型表达式_机器学习_57

  结果再取负号,然后扩展到非线性回归模型二次 非线性回归模型表达式_线性回归_36个样本就得到了上面定义的交叉熵损失函数,我们希望其值越小越好。

  因此目标函数为:

非线性回归模型二次 非线性回归模型表达式_线性回归_59

  我们要做的就是找到一组参数非线性回归模型二次 非线性回归模型表达式_神经网络_60使得目标函数的值最小,即非线性回归模型二次 非线性回归模型表达式_机器学习_61,然后用梯度下降法迭代求解。



  那逻辑回归可以使用均方误差函数吗?假设使用均方误差函数:

非线性回归模型二次 非线性回归模型表达式_神经网络_62

非线性回归模型二次 非线性回归模型表达式_机器学习_63

  我们可以求出梯度为:

非线性回归模型二次 非线性回归模型表达式_机器学习_64

  当非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_65时,如果非线性回归模型二次 非线性回归模型表达式_机器学习_66(即标签是1,预测值是1,预测值接近目标值),非线性回归模型二次 非线性回归模型表达式_机器学习_67,这是合理的,因为我们希望预测正确的时候梯度为0;

  如果非线性回归模型二次 非线性回归模型表达式_神经网络_68(即标签是0,预测值是1,预测值远离目标值),非线性回归模型二次 非线性回归模型表达式_机器学习_67,这是不合理的,因为预测值不正确,但是梯度却为0;

  同理,当非线性回归模型二次 非线性回归模型表达式_神经网络_70时,如果非线性回归模型二次 非线性回归模型表达式_机器学习_66非线性回归模型二次 非线性回归模型表达式_机器学习_67;如果非线性回归模型二次 非线性回归模型表达式_神经网络_68非线性回归模型二次 非线性回归模型表达式_机器学习_67



  交叉熵损失和均方误差损失的图像如下所示,黑色表示交叉熵损失的图像,红色表示均方误差损失,可以看出交叉熵损失变化更剧烈。

非线性回归模型二次 非线性回归模型表达式_深度学习_75

二、逻辑回归与线性回归对比

1.定义

非线性回归模型二次 非线性回归模型表达式_线性回归_76,它可能的输出任何值。
   逻辑回归的公式为:非线性回归模型二次 非线性回归模型表达式_深度学习_77,它可能的输出值在0和1之间。

2.损失函数

  线性回归使用均方误差损失,公式为:非线性回归模型二次 非线性回归模型表达式_机器学习_63
  逻辑回归使用交叉熵损失,公式为:非线性回归模型二次 非线性回归模型表达式_线性回归_59

3.参数更新

  对于线性回归,我们可以求出损失函数的梯度为:
非线性回归模型二次 非线性回归模型表达式_深度学习_80
非线性回归模型二次 非线性回归模型表达式_线性回归_81
  对于逻辑回归,我们把公式表示为:非线性回归模型二次 非线性回归模型表达式_线性回归_82非线性回归模型二次 非线性回归模型表达式_深度学习_24
  根据链式法则:非线性回归模型二次 非线性回归模型表达式_深度学习_84
  其中:非线性回归模型二次 非线性回归模型表达式_线性回归_85
非线性回归模型二次 非线性回归模型表达式_机器学习_86
非线性回归模型二次 非线性回归模型表达式_非线性回归模型二次_87
  将上面的式子整合起来得到:

非线性回归模型二次 非线性回归模型表达式_深度学习_88
非线性回归模型二次 非线性回归模型表达式_线性回归_81
  我们可以发现线性回归和逻辑回归的梯度在形式上是相同的。



本文根据李宏毅老师2020机器学习资料整理。
地址:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML20.html