1、逻辑回归与线性回归的联系与区别
联系:逻辑回归是线性回归中广义线性模型的应用以进行分类任务。找了一个单调可微函数将分类任务的真实标记与线性回归模型的预测值联系起来。
区别:
- 线性回归是线性模型进行回归学习,逻辑回归是分类学习(二分类)。
- 模型不同:
线性回归模型:
逻辑回归模型:
2、逻辑回归的原理
利用线性回归解决分类问题并不适用。如,二分类,我们需要使得假设的值总是在0到1之间,线性回归无法做到,那么就想到找一个模型的输出是0/1,理想的是单位阶跃函数,而单位阶跃函数不连续(横坐标为0时),无法应用,则找寻了一个单调可微替代函数—对数几率函数来作模型(见1)。
3、逻辑回归损失函数推导及优化
对此进行参数拟合
to find to maximize ,则
损失函数:对数损失函数—参数模型的对数似然函数最大化对应损失函数极小化
4、正则化与模型评估指标
损失函数后添加的额外项,两种:L1-norm 及L2-norm两种(L1正则化和L2正则化 或 L1范数和L2范数)
可看作是损失函数的惩罚项--------用于对损失函数中某些参数做出一些限制
:是回归中表示特征的参数
L1正则化是指权值向量中各个元素的绝对值之和,通常表示为||w||1------产生稀疏权值矩阵,用于特征选择(一定程度上也可防止过拟合)
L2正则化是指权值向量中各个元素的平方和然后再求平方根,通常表示为||w||2-----防止模型过拟合
5、逻辑回归的优缺点
优点:
直接对分类可能性进行建模,无需事先假设数据分布,避免了假设分布不准带来的问题。
不是仅预测出“类别”,而是可得到近似概率预测—对需要利用概率作辅助决策的任务很有用
模型所用对数几率函数是任意阶可导凸函数,可直接用于求取最优解
缺点:
只适用于二分类,无法解决多分类问题(softmax回归)
6、样本不均衡问题解决办法
- 再缩放:即调整预测值,将原先几率比值乘上观测几率作新的决策规则,其中y是预测出的y值,y是反应将x视为正例的可能性,1-y是反例可能性,m+指的是训练集中正例数目,m-是训练集中反例数目。
- 欠采样
- 过采样
- 阈值移动
7、sklearn参数
scikit-learn中三个与逻辑回归相关的库:
LogisticRegression、LogisticRegressionCV、logistic_regression_path
solver参数----逻辑回归中损失函数优化:
liblinear:使用坐标轴下降法来迭代优化损失函数
lbfgs:利用损失函数Hessian矩阵来迭代优化损失函数
newton-cg:利用损失函数Hessian矩阵来迭代优化损失函数
sag:随机平均梯度下降,每次迭代仅使用部门样本来计算梯度,适用于样本较多时候