逻辑回归
比较经典的分类算法,目前工业界用到的最多的模型,很多场景下,都会用到逻辑回归。逻辑回归由于存在易于实现、解释性好以及容易扩展等优点,被广泛应用于点击率预估(CTR)、计算广告(CA)以及推荐系统(RS)等任务中。逻辑回归虽然名字叫做回归,但实际上却是一种分类学习方法。 线性回归完成的是回归拟合任务,而对于分类任务,我们同样需要一条线,但不是去拟合每个数据点,而是把不同类别的样本区分开来。
学习输入到输出的映射
:输入
:输出
定义条件概率 ,如何去表示 ,这相当于用模型来捕获输入X和输出Y之间的关系。
条件概率需要满足两个条件:
可以不可以用线性回归来表示?
不能,因为不满足条件1:1.
改进使得值域映射到(0,1)区间,
逻辑函数(Logistic Function) Sigmoid:
把里面,定义域为(∞,∞),定义域(0,1)。
所以对于二分类问题,就可以写成如下形式:
两个式子可以合并为:
所以,逻辑回归可以被认为就是一个被Sigmoid函数(logistic方程)所归一化后的线性回归模型!
决策边界
如何判断?判断标准如何?
要看决策边界是线性还是非线性。决策边界上的点判断成各类的概率相等。
可以推导出来逻辑回归的决策边界为:
如何求解和
模型的实例化 = 定义明确的目标函数
定义优化器,优化算法
已经定义了:
现在需要最大化目标函数,来求解和:
如何寻找函数最优解:
- 判断是否是凸函数
- 选择最优化算法
求解最优解时,当找到一个解,它是全局最优还是局部最优。如果是凸函数,找到的最优解一定是全局最优解,非凸函数的话就不一定是全局最优解。
凸函数:
最优化算法:一步一步的找
- GD(梯度下降法)
- SGD(随机梯度下降法)
- Adamgrad
GD(梯度下降法):
- 随机初始化未知的参数
- 沿着梯度最大方向,不断更新参数
- 初始化
- for t = 1,2,…:
对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。