一,假设函数:

1) 逻辑回归(Logistic Regression),Logistic function, Sigmoid function是同一个意思,函数形式(假设函数形式)如下:




matlab逻辑回归数据集csv文件 matlab做逻辑回归_数据集


逻辑回归是二分类算法,hθ(x)>=0.5 h θ ( x ) >= 0.5 (z>=0 z >= 0 , 即θTx>=0 θ T x >= 0 ),则y=1 y = 1 。

2) 决策边界(Decision Boundary)
逻辑函数分为正类和负类时的边界,即hθ(x)=0.5 h θ ( x ) = 0.5 即为边界函数。



matlab逻辑回归数据集csv文件 matlab做逻辑回归_数据集_02


上图假定参数θ θ 已经学好, 根据上一张图知θTx>=0 θ T x >= 0 为正类,θTx<0 θ T x < 0 为负类,则边界为θTx=0 θ T x = 0 ,此时边界为x1+x2=3 x 1 + x 2 = 3

3) 非线性决策边界
假设已经使用训练集训练逻辑回归模型,得到参数θ θ ,于线性边界一样,则非线性决策边界为θTx=0 θ T x = 0 ,如下



matlab逻辑回归数据集csv文件 matlab做逻辑回归_Code_03


二,参数学习

1) 损失函数,学习参数,首先需要定义损失函数,线性回归的损失函数可以是均方误差

matlab逻辑回归数据集csv文件 matlab做逻辑回归_损失函数_04

,但逻辑回归的损失函数不能使用均方误差函数,因为逻辑回归函数 hθ(x)=11+exp(−θTx) h θ ( x ) = 1 1 + e x p ( − θ T x ) ,也叫Sigmoid function作为假设函数,此函数是非线性的,会导致均方误差函数为non-convex(

函数的二阶导数大于等于零,那么这个函数就是凸函数),有许多局部最小值。所有需要定义新的损失函数,如下:




matlab逻辑回归数据集csv文件 matlab做逻辑回归_损失函数_05


损失函数另一种表达方式是:

matlab逻辑回归数据集csv文件 matlab做逻辑回归_损失函数_06


所有样本的损失值之和: matlab逻辑回归数据集csv文件 matlab做逻辑回归_损失函数_07

2) 使用梯度下降算法,找到J J 损失值最小时的参数θθ,预测某个样本x x 时,利用得到的参数θθ代入假设函数(逻辑回归函数,Sigmoid函数),即可求得预测值:

matlab逻辑回归数据集csv文件 matlab做逻辑回归_Code_08

3) 梯度下降法,损失函数偏导具体推导过程参考链接



matlab逻辑回归数据集csv文件 matlab做逻辑回归_损失函数_09


前面已经确定了三要素:假设函数,损失函数,梯度下降

三,Matlab实现

数据集下载:百度云链接 密码:tb4p

假设一所高中有一个数据集,代表40名学生被录取进入大学,40名学生未被录取。训练样本包含两个标准化考试的学生成绩和学生是否被录取的标签。

任务是建立一个二元分类模型,根据学生在两次考试中的分数来估计大学录取的机会。

ex4x.dat:X数组的第一列代表所有的测试1分数,第二列代表所有的测试2分数。
ex4y.dat:Y向量使用“1”来标记被录取和“0”以标记未录取的学生。

数据分布



matlab逻辑回归数据集csv文件 matlab做逻辑回归_Code_10


Matlab代码

clear;
clc;
% 1,读入数据
load('D:\Code\Data\ex4Data\ex4x.dat');
load('D:\Code\Data\ex4Data\ex4y.dat');
x = ex4x;
y = ex4y;

% 2,显示数据,查看分布
pos = find(y == 1); neg = find(y == 0);
plot(x(pos, 1), x(pos,2), '+'); hold on
plot(x(neg, 1), x(neg, 2), 'o')

% 3, 参数设置
iteration = 10000;
sample_num = length(x); % 样本个数
x = [ones(sample_num, 1), x];
theta = zeros(size(x, 2), 1); % 参数
alpha = 0.1;

% 4,特征归一化
x(:,2) = (x(:,2)- mean(x(:,2)))./ std(x(:,2));
x(:,3) = (x(:,3)- mean(x(:,3)))./ std(x(:,3));

% 5,迭代,寻找最佳参数
for i = 1:iteration
    h = 1 ./ (1 + exp(-x * theta)); % 通过假设函数得到预测值
    J(i,1) = -1/sample_num * (y' * log(h+eps) + (1-y)'*log(1-h+eps)); % 当前参数下的损失值
    theta(1,1) = theta(1,1) - alpha * sum((h - y) .* x(:,1));  % 更新参数
    theta(2,1) = theta(2,1) - alpha * sum((h - y) .* x(:,2));
    theta(3,1) = theta(3,1) - alpha * sum((h - y) .* x(:,3));
    %theta = theta - alpha * x'*(h-y); % 同时更新所有参数
end

figure,
plot(x(pos, 2), x(pos,3), '+'); hold on
plot(x(neg, 2), x(neg, 3), 'o')

% 6,边界为Theta'x = 0; theta_1 + theta_2*x_2 + theta_3*x_3 = 0
max_value = max(x(:,2));
min_value = min(x(:,2));
X = min_value:0.001:max_value;
Y = -(theta(1,1) + theta(2,1) * X) / theta(3,1);
plot(X, Y, '-')

效果图,画决策边界(hθ(z)=0.5,此时z=θTx=0 h θ ( z ) = 0.5 , 此 时 z = θ T x = 0 ):



matlab逻辑回归数据集csv文件 matlab做逻辑回归_Code_11


关键代码(向量化表示):

theta(1,1) = theta(1,1) - alpha * sum((h - y) .* x(:,1));  % 更新参数
theta(2,1) = theta(2,1) - alpha * sum((h - y) .* x(:,2));
theta(3,1) = theta(3,1) - alpha * sum((h - y) .* x(:,3));
%theta = theta - alpha * x'*(h-y); % 同时更新所有参数