前言
此文介绍了线性可分支持向量机的硬间隔最大化以及它的对偶算法,很好的理解线性可分支持向量机是理解线性支持向量机的基础,只要理解前面的,后面的就会很容易理解。
首先,前面我们所讨论的都是基于线性可分的训练数据集,但在现实任务中,我们得到的一般都不是线性可分的,这是线性可分支持向量机就不适用了。因为这时我们之前所提到的不等式约束并不能都成立。
缓解该问题的一个办法就是允许支持向量机在一些样本上出错。那么我们怎样才能将它扩展到线性不可分问题呢?这就需要我们将硬间隔最大化改为软间隔最大化
软间隔

图片来源:周志华《机器学习》
我们之前提到的硬间隔,是要求所有样本都满足约束条件,而软间隔则是允许某些样本不满足约束:
自然,在最大化间隔的同时,不满足约束的样本应尽可能的少。
为了解决某些样本不满足约束条件,可以对每个样本点 引入一个松弛变量
,是函数间隔加上松弛变量大于等于1,这样,约束条件就变为:
同时,对每个松弛变量 ,支付一个代价
。目标函数由原来的
变成:
这里,称为惩罚系数,值大时对误分类的惩罚增加,
值小时对误分类的惩罚减小。
此时,最优化的目标函数包括两个含义:
- 使
尽量小即间隔尽量大
- 使误分类点的个数尽量小
是调和二者的系数
有了上面的思路,可以和线性可分支持向量机一样来考虑线性支持向量机的学习问题。
线性不可分的线性支持向量机的学习问题就变为如下凸二次规划问题(原始问题):
通过求解以上凸二次规划问题,即软间隔最大化问题,得到的分离超平面为:
以及相应的分类决策函数:
这就称为:线性支持向量机
对偶算法
对偶问题的构建和线性可分支持向量机的对偶问题的构建类似。
为了让大家更容易理解,现在我们再来构建一次:
(1)首先构建拉格朗日函数
其中,
(2)求
拉格朗日函数$L(w,b,\xi,\alpha,\mu) w,b,\xi$求偏导数并令为0:
得:
代入拉格朗日函数,得:
(3)再对求
的极大,即得对偶问题:
将上式的目标函数由求极大转换为求极小,再将约束条件合并,得到等价的对偶最优化问题:
线性支持向量机对偶算法:
输入:线性可分训练数据集,其中,
;
输出:最大间隔分离超平面和分类决策函数。
(1)选择惩罚系数 $C > 0 $ ,构造并求解约束最优化问题:
求得最优解;
(2)计算:
并选择的一个分量 $\alpha_j^* $ 适合条件,计算:
(3)求得分离超平面:
分类决策函数:
软间隔支持向量

软间隔的支持向量
- 若,则
,支持向量
- 若
, ,则正确分类,支持向量
- 若
,
,支持向量
- 若
, ,支持向量
合页损失函数
线性支持向量机学习还有另外一种解释,就是最小化以下目标函数:
目标函数第一项是经验损失或经验风险,称为合页损失函数。下标“+”表示一下取正值的函数:
这就是说,当样本点
被正确分类且函数间隔(确信度)$y_i(w\cdot x_i+b) $大于1时,损失是0,否则损失为
,我们注意到上图中实例点
被正确分类,但是在间隔边界与分离超平面之间,损失不是0,目标函数第二项是系数
的
的
范数,是正则化项。
两个方式的相互转换:
定理: 线性支持向量机原始最优化问题:
等价于最优化问题:
证明:
令:
则 式$ \ \xi_i \geqslant 0$成立;
当$1-y_i(w \cdot x_i + b ) > 0 y_i(w \cdot x_i + b ) = 1 - \xi_i$;
当$1-y_i(w \cdot x_i + b ) \leqslant 0 \xi_i = 0$ ,有
;
故: 满足约束条件,所以最优化问题:
可写为:
若取,则:
与原始问题等价。
常用的合页损失函数有:
- hinge损失:
- 指数损失:
- 对数损失:
函数图像如下图:

参考书籍:
《机器学习》 周志华,《统计学习方法》 李航
















