简单来讲,分类任务回归任务 的区别在于 需要预测的值的类型

  • 回归任务,是对 连续值 进行预测(比如 多少);
  • 分类任务,是对 离散值 进行预测(比如 是不是属不属于,或者 属于哪一类)。

比如,

  • 预测 明天的气温是多少度,这是一个回归任务;
  • 预测 明天会不会下雨,就是一个分类任务。

分类模型 和 回归模型 本质上是一样的

分类模型可将回归模型的输出离散化(下面例子1. 2. 4. 5.),回归模型也可将分类模型的输出连续化(下面例子3.)

举几个例子:

Logistic Regression 和 Linear Regression:

  • Linear Regression: 输出一个标量 wx+b,这个值是连续值,所以可以用来处理回归问题
  • Logistic Regression:把上面的 wx+b 通过 sigmoid 函数映射到(0,1)上,并划分一个阈值,大于阈值的分为一类,小于等于分为另一类,可以用来处理二分类问题
    更进一步:对于N分类问题,则是先得到N组w值不同的 wx+b,然后归一化,比如用 softmax 函数,最后变成N个类上的概率,可以处理多分类问题

Support Vector Regression 和 Support Vector Machine:

  • SVR:输出 wx+b,即某个样本点到分类面的距离,是连续值,所以是回归模型
  • SVM:把这个距离用 sign(·) 函数作用,距离为正(在超平面一侧)的样本点是一类,为负的是另一类,所以是分类模型

Naive Bayes 用于 分类 和 回归:

  • 用于分类:y是离散的类别,所以得到离散的 p(y|x),给定 x ,输出每个类上的概率
  • 用于回归:对上面离散的 p(y|x)求期望 ΣyP(y|x),就得到连续值。但因为此时y本身是连续的值,所以最地道的做法是,得到连续的概率密度函数p(y|x),然后再对y求期望。参考 http://www.cs.waikato.ac.nz/~eibe/pubs/nbr.pdf

前馈神经网络(如 CNN 系列) 用于 分类 和 回归:

  • 用于回归:最后一层有m个神经元,每个神经元输出一个标量,m个神经元的输出可以看做向量 v,现全部连到一个神经元上,则这个神经元输出 wv+b,是一个连续值,可以处理回归问题,跟上面 Linear Regression 思想一样
  • 用于N分类:现在这m个神经元最后连接到 N 个神经元,就有 N 组w值不同的 wv+b,同理可以归一化(比如用 softmax )变成 N个类上的概率(补充一下,如果不用 softmax,而是每个 wx+b 用一个 sigmoid,就变成多标签问题,跟多分类的区别在于,样本可以被打上多个标签)

循环神经网络(如 RNN 系列) 用于分类 和 回归:

  • 用于回归 和 分类: 跟 CNN 类似,输出层的值 y = wv+b,可做分类可做回归,只不过区别在于,RNN 的输出跟时间有关,即输出的是 {y(t), y(t+1),…}序列(关于时间序列,见下面的更新)

分类与回归的目标函数

分类模型和回归模型的目标函数不同,分类常见的是 log loss, hinge loss, 而回归是 square loss


参考: