一,假设函数:
1) 逻辑回归(Logistic Regression),Logistic function, Sigmoid function是同一个意思,函数形式(假设函数形式)如下:
逻辑回归是二分类算法,hθ(x)>=0.5 h θ ( x ) >= 0.5 (z>=0 z >= 0 , 即θTx>=0 θ T x >= 0 ),则y=1 y = 1 。
2) 决策边界(Decision Boundary)
逻辑函数分为正类和负类时的边界,即hθ(x)=0.5
h
θ
(
x
)
=
0.5
即为边界函数。
上图假定参数θ θ 已经学好, 根据上一张图知θTx>=0 θ T x >= 0 为正类,θTx<0 θ T x < 0 为负类,则边界为θTx=0 θ T x = 0 ,此时边界为x1+x2=3 x 1 + x 2 = 3
3) 非线性决策边界
假设已经使用训练集训练逻辑回归模型,得到参数θ
θ
,于线性边界一样,则非线性决策边界为θTx=0
θ
T
x
=
0
,如下
二,参数学习
1) 损失函数,学习参数,首先需要定义损失函数,线性回归的损失函数可以是均方误差
,但逻辑回归的损失函数不能使用均方误差函数,因为逻辑回归函数
hθ(x)=11+exp(−θTx)
h
θ
(
x
)
=
1
1
+
e
x
p
(
−
θ
T
x
)
,也叫Sigmoid function作为假设函数,此函数是非线性的,会导致均方误差函数为non-convex(
函数的二阶导数大于等于零,那么这个函数就是凸函数),有许多局部最小值。所有需要定义新的损失函数,如下:
损失函数另一种表达方式是:
所有样本的损失值之和:
2) 使用梯度下降算法,找到J J 损失值最小时的参数θθ,预测某个样本x x 时,利用得到的参数θθ代入假设函数(逻辑回归函数,Sigmoid函数),即可求得预测值:
3) 梯度下降法,损失函数偏导具体推导过程参考链接:
前面已经确定了三要素:假设函数,损失函数,梯度下降
三,Matlab实现
数据集下载:百度云链接 密码:tb4p
假设一所高中有一个数据集,代表40名学生被录取进入大学,40名学生未被录取。训练样本包含两个标准化考试的学生成绩和学生是否被录取的标签。
任务是建立一个二元分类模型,根据学生在两次考试中的分数来估计大学录取的机会。
ex4x.dat:X数组的第一列代表所有的测试1分数,第二列代表所有的测试2分数。
ex4y.dat:Y向量使用“1”来标记被录取和“0”以标记未录取的学生。
数据分布:
Matlab代码:
clear;
clc;
% 1,读入数据
load('D:\Code\Data\ex4Data\ex4x.dat');
load('D:\Code\Data\ex4Data\ex4y.dat');
x = ex4x;
y = ex4y;
% 2,显示数据,查看分布
pos = find(y == 1); neg = find(y == 0);
plot(x(pos, 1), x(pos,2), '+'); hold on
plot(x(neg, 1), x(neg, 2), 'o')
% 3, 参数设置
iteration = 10000;
sample_num = length(x); % 样本个数
x = [ones(sample_num, 1), x];
theta = zeros(size(x, 2), 1); % 参数
alpha = 0.1;
% 4,特征归一化
x(:,2) = (x(:,2)- mean(x(:,2)))./ std(x(:,2));
x(:,3) = (x(:,3)- mean(x(:,3)))./ std(x(:,3));
% 5,迭代,寻找最佳参数
for i = 1:iteration
h = 1 ./ (1 + exp(-x * theta)); % 通过假设函数得到预测值
J(i,1) = -1/sample_num * (y' * log(h+eps) + (1-y)'*log(1-h+eps)); % 当前参数下的损失值
theta(1,1) = theta(1,1) - alpha * sum((h - y) .* x(:,1)); % 更新参数
theta(2,1) = theta(2,1) - alpha * sum((h - y) .* x(:,2));
theta(3,1) = theta(3,1) - alpha * sum((h - y) .* x(:,3));
%theta = theta - alpha * x'*(h-y); % 同时更新所有参数
end
figure,
plot(x(pos, 2), x(pos,3), '+'); hold on
plot(x(neg, 2), x(neg, 3), 'o')
% 6,边界为Theta'x = 0; theta_1 + theta_2*x_2 + theta_3*x_3 = 0
max_value = max(x(:,2));
min_value = min(x(:,2));
X = min_value:0.001:max_value;
Y = -(theta(1,1) + theta(2,1) * X) / theta(3,1);
plot(X, Y, '-')
效果图,画决策边界(hθ(z)=0.5,此时z=θTx=0 h θ ( z ) = 0.5 , 此 时 z = θ T x = 0 ):
关键代码(向量化表示):
theta(1,1) = theta(1,1) - alpha * sum((h - y) .* x(:,1)); % 更新参数
theta(2,1) = theta(2,1) - alpha * sum((h - y) .* x(:,2));
theta(3,1) = theta(3,1) - alpha * sum((h - y) .* x(:,3));
%theta = theta - alpha * x'*(h-y); % 同时更新所有参数