文章目录

  • 前言
  • LM 算法
  • Matlab代码


前言

 写到这里,已经发现了前面两篇文章的重大bug。那就是牛顿法也好,LM法也好,都是针对无约束的问题,而四参数拟合问题是一个有约束的问题,参数一般设置为0到正无穷。这也解释了为何之前的计算结果,总是和L4P的结果不同。根本原因在于完全没搞懂四参数拟合的参数意义。所以这篇重点介绍LM算法,四参数拟合结果仍然有问题
 事到如今,将错就错, 把Levenberg-Marquardt算法写完。Levenberg-Marquardt简称L-M,它的主要目的是克服了高斯牛顿法必须要求雅可比矩阵秩满列的缺点,为此,它引入了新的目标函数。

LM 算法

高斯牛顿法目标
lm检验辅助回归 lm检验和f检验_lm检验辅助回归
lm检验辅助回归 lm检验和f检验_拟合_02是残差向量,lm检验辅助回归 lm检验和f检验_评价指标_03lm检验辅助回归 lm检验和f检验_评价指标_04为带求参数
lm检验辅助回归 lm检验和f检验_评价指标_05
L-M法目标

lm检验辅助回归 lm检验和f检验_牛顿法_06

这个目标式对lm检验辅助回归 lm检验和f检验_lm检验辅助回归_07的进行约束,防止lm检验辅助回归 lm检验和f检验_lm检验辅助回归_07,使得泰勒展开式误差过大。这个目标跟岭回归的目标式如出一辙
lm检验辅助回归 lm检验和f检验_评价指标_09
从上式可以看出,lm检验辅助回归 lm检验和f检验_lm检验辅助回归_10很大的时候,下降梯度接近最速下降法,很小时,则接近于高斯牛顿法。为了得到合适的lm检验辅助回归 lm检验和f检验_lm检验辅助回归_10值需要引入一个评价指标lm检验辅助回归 lm检验和f检验_牛顿法_12
lm检验辅助回归 lm检验和f检验_lm检验辅助回归_13,lm检验辅助回归 lm检验和f检验_牛顿法_14
这里的lm检验辅助回归 lm检验和f检验_牛顿法_15分为lm检验辅助回归 lm检验和f检验_评价指标_16的梯度以及海赛矩阵,其中,lm检验辅助回归 lm检验和f检验_评价指标_17只是取一个近似值
lm检验辅助回归 lm检验和f检验_牛顿法_18
从上式可以看出,lm检验辅助回归 lm检验和f检验_牛顿法_12越接近lm检验辅助回归 lm检验和f检验_牛顿法_20,泰勒展开的估计值越准确。lm检验辅助回归 lm检验和f检验_牛顿法_12只要大于0,至少说明方向是正确的,如果lm检验辅助回归 lm检验和f检验_牛顿法_12小于0,则要调节步长了。我们已经能看到步长lm检验辅助回归 lm检验和f检验_lm检验辅助回归_13实际是通过lm检验辅助回归 lm检验和f检验_lm检验辅助回归_10控制,调节范围在最速下降和高斯牛顿法之间。这种步长的调节方法也称为称为信赖域的方法。
具体调整策略很多,简单的做法如下:
设置参数如下lm检验辅助回归 lm检验和f检验_拟合_25
lm检验辅助回归 lm检验和f检验_牛顿法_26
设置收敛条件:

  1. 决定系数R>0.997
  2. lm检验辅助回归 lm检验和f检验_牛顿法_27
  3. lm检验辅助回归 lm检验和f检验_lm检验辅助回归_28
  4. 超过最大运算次数

可以多选或者选其一

Matlab代码

%Levenberg-Marquardt

clear;
load census;
x1 = cdate ;
y1 = pop ;
m = length(x1);
%parameters
eps = 0.01;
eta1 = 0.01;
eta2 = 0.75;
gama1 = 0.5;
gama2 = 2;
lamda = 1;
%init a,b,c,d
d = max(y1)+1;
a = min(y1)-0.1;
y2 = log((y1-d)./(a-y1));
x2 = log(x1);
[curve2,gof2] = fit(x2,y2, 'poly1');
b = -curve2.p1;
c = exp(curve2.p2/b);
%LMF
w=[a,b,c,d]'; 
[res,R,fit] = evaluateFit(y1,x1,w);
mse = 0.5*sum((y1-fit).^2); 
r = y1-fit;
for k = 1:1:1000
    JacobiMatrix = getJaccobiMatrix(x1,a,b,c,d);
    HessenMatrix = (JacobiMatrix)'*(JacobiMatrix)+lamda*eye(4);
    delta_w = inv(HessenMatrix)*JacobiMatrix'*r;
    w_new = w+delta_w;
    [res,R,fit_new] = evaluateFit(y1,x1,w_new);
    mse_new =0.5*sum( (y1-fit_new).^2);
    q = (mse - mse_new)/(r'*JacobiMatrix*delta_w+0.5*delta_w'*HessenMatrix*delta_w);
     if q<eta1
        lamda = lamda * gama2;
        continue;
    elseif  q>eta2
         lamda = lamda * gama1;
     end
    %coverage
    de = abs(norm(JacobiMatrix'*r));
    if de<eps
        break;
    end
    %update compution result
    fit = fit_new;
    mse = mse_new;
    r  = y1-fit;
    %update a b c d
    a = w_new(1);b = w_new(2);c = w_new(3);d= w_new(4);
    w=w_new; 

end
function [JacobiMatrix] = getJaccobiMatrix(x1,a,b,c,d)
   JacobiMatrix = ones(length(x1),4);
   for i = 1:1:length(x1)
        JacobiMatrix(i,1) = calc_pA(x1(i),a,b,c,d);
        JacobiMatrix(i,2) = calc_pB(x1(i),a,b,c,d);
        JacobiMatrix(i,3) = calc_pC(x1(i),a,b,c,d);
        JacobiMatrix(i,4) = calc_pD(x1(i),a,b,c,d);
    end
end
function [res,R2,fit] = evaluateFit(y,x,w)
fit = getFittingValue(x,w);
res =  norm(y-fit)/sqrt(length(fit));
yu =  mean(y);
R2 = 1 - norm(y-fit)^2/norm(y - yu)^2;
end
function fit = getFittingValue(x,w)
len = length(x);
fit = ones(len,1);
for i = 1:1:len
    fit(i)  = hypothesis(x(i),w);
end
end
function val  = hypothesis(x,w)
a = w(1);b= w(2);c= w(3);d= w(4);
val = d+(a-d)/(1+(x/c)^b);
end
function val = calc_pA(x,A,B,C,D)
val = 1/((x/C)^B + 1);
end
function val = calc_pB(x,A,B,C,D)
val = -(log(x/C)*(A - D)*(x/C)^B)/((x/C)^B + 1)^2;
end
function val = calc_pC(x,A,B,C,D)
val = (B*x*(A - D)*(x/C)^(B - 1))/(C^2*((x/C)^B + 1)^2);
end
function val = calc_pD(x,A,B,C,D)
val = 1 - 1/((x/C)^B + 1);
end

后面,研究一下四参数拟合的约束情况