回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比


目录

  • 回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比
  • 效果一览
  • 基本介绍
  • 模型描述
  • 程序设计
  • 参考资料


效果一览

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化


回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_02


回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_DELM_03


回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_DELM_04


回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_05

基本介绍

Matlab实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比
1.输入多个特征,输出单个变量;
2.SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比
3.含优化前后对比图
4.优化前后MSE对比:
DELM训练集MSE:39.1837
DELM测试集MSE:57.8267
SSA_DELM训练集MSE:10.9448
SSA_DELM测试集MSE:8.5069

模型描述

  • SSA-DELM麻雀算法是一种基于麻雀搜索算法和深度极限学习机(DELM)的优化算法,用于多输入单输出回归预测问题的优化。
    深度极限学习机是一种深度神经网络结构,通过堆叠多个隐层,可以学习到更高层次的抽象特征表示,从而提高模型的预测准确性。然而,深度极限学习机的训练需要大量的计算资源和时间,因此需要一种高效的优化算法来加速训练过程。
  • SSA-DELM麻雀算法是基于麻雀搜索算法的一种新型优化算法,通过模拟麻雀在搜索食物和避免危险的过程中的行为,来搜索最优解。在SSA-DELM麻雀算法中,麻雀代表一组待优化的参数,而食物和危险则代表解空间中的最优解和局部最优解。算法通过不断迭代,不断更新麻雀的位置和速度,直到找到全局最优解或者达到最大迭代次数为止。
  • 在多输入单输出回归预测问题中,SSA-DELM麻雀算法可以用来优化深度极限学习机的权重和偏置参数,以最小化预测误差。具体地,算法通过将输入数据经过多个隐层的非线性变换,得到高层次的抽象特征表示,然后将这些特征输入到输出层进行回归预测。在每次迭代中,算法根据当前麻雀的位置和速度,更新神经网络的参数,以逐步优化模型的预测准确性。
  • 总的来说,SSA-DELM麻雀算法是一种有效的优化算法,可以用于优化深度极限学习机模型在多输入单输出回归预测问题中的性能。
  • SSA-DELM麻雀算法优化深度极限学习机多输入单输出回归预测的具体公式如下:
  1. 麻雀位置和速度更新公式
  • 麻雀的位置和速度可以通过以下公式进行更新:

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_06

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_07

  • 其中,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_DELM_08是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_09个隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神经元在时间回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_11的速度,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_12是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_09个隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神经元在时间回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_11的位置。回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_16是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_09个隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神经元历史上访问过的最优位置,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_19是所有隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_09个神经元历史上访问过的最优位置。回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_21是惯性权重,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_DELM_22回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_23是两个常数,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_24回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_25是两个随机数。
  1. 深度极限学习机模型预测公式
  • 深度极限学习机模型的预测公式如下:

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_26

  • 其中,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_27是模型的输出,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_28是输出层的神经元个数,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_29是输出层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神经元的权重,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_31是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神经元的输出,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_33是偏置项。

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_34的计算公式如下:

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_35

  • 其中,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_36是输入层的神经元个数,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_37是输入层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_09个神经元的输出,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_39是连接输入层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_09个神经元和隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神元的权重,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_42是隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_10个神经元的偏置项,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_44是激活函数。
  1. 优化目标函数公式
  • SSA-DELM麻雀算法的优化目标函数是MSE,可以表示为:

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_45

  • 其中,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_DELM_46是样本数,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_47是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_48个样本的真实值,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_49是对第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_48个样本的预测值。
  • MSE是所有预测误差平方的平均值,因此它的值越小,表示预测结果与真实值之间的差异越小,预测效果越好。MSE的单位与预测值的单位平方相同。
  1. 模型参数优化公式
  • 模型参数优化可以通过以下公式进行:

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_51

回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_52

  • 其中,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_53回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_SSA-DELM_54是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_48个隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_56个神经元在时间回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_57的权重和偏置项,回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_麻雀算法优化深度极限学习机_58回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_DELM_59是第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_48个隐层第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_多输入单输出回归预测_56个神经元在时间回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_62的位置和第回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_48个隐层在时间回归预测 | MATLAB实现SSA-DELM和DELM麻雀算法优化深度极限学习机多输入单输出回归预测对比_算法优化_62的位置,即经过更新后的最优位置。
  • 在每次迭代中,通过不断更新麻雀的位置和速度,计算出对应的深度极限学习机模型的权重和偏置项,然后用这些参数进行预测,并计算出对应的平方误差损失函数。最终,通过不断迭代更新麻雀的位置和速度,使得平方误差损失函数逐步减小,直到达到最小值,从而得到最优的深度极限学习机模型参数。

程序设计

%_________________________________________________________________________%
% 麻雀优化算法             %
%_________________________________________________________________________%
function [Best_pos,Best_score,curve]=SSA(pop,Max_iter,lb,ub,dim,fobj)

ST = 0.6;%预警值
PD = 0.7;%发现者的比列,剩下的是加入者
SD = 0.2;%意识到有危险麻雀的比重

PDNumber = round(pop*PD); %发现者数量
SDNumber = round(pop*SD);%意识到有危险麻雀数量
if(max(size(ub)) == 1)
   ub = ub.*ones(1,dim);
   lb = lb.*ones(1,dim);  
end

%种群初始化
X0=initialization(pop,dim,ub,lb);
X = X0;
%计算初始适应度值
fitness = zeros(1,pop);
for i = 1:pop
   fitness(i) =  fobj(X(i,:));
end
 [fitness, index]= sort(fitness);%排序
BestF = fitness(1);
WorstF = fitness(end);
GBestF = fitness(1);%全局最优适应度值
for i = 1:pop
    X(i,:) = X0(index(i),:);
end
curve=zeros(1,Max_iter);
GBestX = X(1,:);%全局最优位置
X_new = X;
for i = 1: Max_iter
    disp(['第',num2str(i),'次迭代'])
    BestF = fitness(1);
    WorstF = fitness(end);

    
    R2 = rand(1);
   for j = 1:PDNumber
      if(R2<ST)
          X_new(j,:) = X(j,:).*exp(-j/(rand(1)*Max_iter));
      else
          X_new(j,:) = X(j,:) + randn()*ones(1,dim);
      end     
   end
   for j = PDNumber+1:pop
%        if(j>(pop/2))
        if(j>(pop - PDNumber)/2 + PDNumber)
          X_new(j,:)= randn().*exp((X(end,:) - X(j,:))/j^2);
       else
          %产生-1,1的随机数
          A = ones(1,dim);
          for a = 1:dim
            if(rand()>0.5)
                A(a) = -1;
            end
          end 
          AA = A'*inv(A*A');     
          X_new(j,:)= X(1,:) + abs(X(j,:) - X(1,:)).*AA';
       end
   end
   Temp = randperm(pop);
   SDchooseIndex = Temp(1:SDNumber); 
   for j = 1:SDNumber
       if(fitness(SDchooseIndex(j))>BestF)
           X_new(SDchooseIndex(j),:) = X(1,:) + randn().*abs(X(SDchooseIndex(j),:) - X(1,:));
       elseif(fitness(SDchooseIndex(j))== BestF)
           K = 2*rand() -1;
           X_new(SDchooseIndex(j),:) = X(SDchooseIndex(j),:) + K.*(abs( X(SDchooseIndex(j),:) - X(end,:))./(fitness(SDchooseIndex(j)) - fitness(end) + 10^-8));
       end
   end
   %边界控制
   for j = 1:pop
       for a = 1: dim
           if(X_new(j,a)>ub)
               X_new(j,a) =ub(a);
           end
           if(X_new(j,a)<lb)
               X_new(j,a) =lb(a);
           end
       end
   end 
   %更新位置
   for j=1:pop
    fitness_new(j) = fobj(X_new(j,:));
   end
   for j = 1:pop
    if(fitness_new(j) < GBestF)
       GBestF = fitness_new(j);
        GBestX = X_new(j,:);   
    end
   end
   X = X_new;
   fitness = fitness_new;
    %排序更新
   [fitness, index]= sort(fitness);%排序
   BestF = fitness(1);
   WorstF = fitness(end);
   for j = 1:pop
      X(j,:) = X(index(j),:);
   end
   curve(i) = GBestF;
end
Best_pos =GBestX;
Best_score = curve(end);
end
function OutWeight = DELMTrainWithInitial(InputWietht,P_train,T_train,ELMAEhiddenLayer,ActivF,C)
hiddenLayerSize = length(ELMAEhiddenLayer); %获取ELM-AE的层数
outWieght = {};%用于存放所有的权重
P_trainOrg = P_train;
count = 1;
%% ELM-AE提取数据特征
for i = 1:hiddenLayerSize
    Num = ELMAEhiddenLayer(i)*size(P_train,2);
    InputW = InputWietht(count:count+Num-1);
    count = count+Num;
    InputW = reshape(InputW,[ELMAEhiddenLayer(i),size(P_train,2)]);
    [~,B,Hnew] = ELM_AEWithInitial(InputW,P_train,ActivF,ELMAEhiddenLayer(i)); %获取权重
    OutWeight{i} = B';
    P_train =P_train*B'; %输入经过第一层后传递给下一层
end
%% 最后一层ELM进行监督训练
P = P_train;
N =size(P,2);
I = eye(N);
beta = pinv((P'*P+I/C))*P'*T_train;
OutWeight{hiddenLayerSize + 1} = beta; %存储最后一层ELM的信息。
end