回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测


目录

  • 回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测
  • 效果一览
  • 基本介绍
  • 模型描述
  • 程序设计
  • 参考资料


效果一览

回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_麻雀算法优化


回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_多输入单输出回归预测_02


回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_麻雀算法优化_03


回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_SSA-DBN_04


回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_多输入单输出回归预测_05

回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_深度置信网络_06


回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_多输入单输出回归预测_07


回归预测 | MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测_多输入单输出回归预测_08

基本介绍

基于麻雀算法优化深度置信网络(SSA-DBN)的数据回归预测,优化参数为隐藏层节点数目,反向迭代次数,反向学习率,利用交叉验证抑制过拟合问题,matlab代码。
评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
MATLAB实现SSA-DBN麻雀算法优化深度置信网络的数据多输入单输出回归预测(Matlab完整程序和数据)
输入多个特征,输出1个,即多输入单输出;
运行环境Matlab2018及以上,运行主程序main即可,其余为函数文件无需运行,所有程序放在一个文件夹,data为数据集;
命令窗口输出RMSEP、MAE、R2、MAPE。

-----------------------误差计算--------------------------
评价结果如下所示:
平均绝对误差MAE为:0.16722
均方误差MSE为: 0.061486
均方根误差RMSE为: 0.24796
决定系数R^2为: 0.98945
剩余预测残差RPD为: 10.0234
平均绝对百分比误差MAPE为: 0.04507

模型描述

SSA-DBN麻雀算法是一种基于深度置信网络(DBN)的回归预测算法,该算法的目标是将多个输入变量映射到单个输出变量,并且可以应用于各种领域的数据预测问题。具体来说,该算法将时间序列数据分解为多个成分,并使用其中的一些成分作为输入变量。然后,DBN模型将这些输入变量与输出变量之间的关系进行建模,并使用反向传播算法进行训练。最终,该算法可以用于预测单个输出变量的未来趋势。值得注意的是,该算法需要大量的数据进行训练,并且需要仔细选择SSA分解的成分和DBN模型的参数,以获得最佳的预测性能。此外,该算法的应用领域也需要具有一定的时间序列特征,否则其预测性能可能会受到影响。

程序设计

%_________________________________________________________________________%
% 麻雀优化算法             %
%_________________________________________________________________________%
function [Best_score,Best_pos,curve]=SSA(pop,Max_iter,lb,ub,dim,fobj)

ST = 0.7;%预警值
PD = 0.4;%发现者的比列,剩下的是加入者0.7
SD = 0.2;%意识到有危险麻雀的比重

PDNumber = round(pop*PD); %发现者数量
SDNumber = round(SD*PD);%意识到有危险麻雀数量

%种群初始化
X0=initialization(pop,dim,ub,lb);
X = X0;
%计算初始适应度值
fitness = zeros(1,pop);
for i = 1:pop
   fitness(i) =  fobj(X(i,:));
end
[fitness, index]= sort(fitness);%升排序
BestF = fitness(1);
WorstF = fitness(end);
GBestF = fitness(1);%全局最优适应度值
for i = 1:pop
    X(i,:) = X0(index(i),:);
end
curve=zeros(1,Max_iter);
GBestX = X(1,:);%全局最优位置
X_new = X;
for i = 1: Max_iter
    
    disp(['第',num2str(i),'次迭代'])
    BestF = fitness(1);
    WorstF = fitness(end);

    
    R2 = rand(1);
   for j = 1:PDNumber
      if(R2<ST)
          X_new(j,:) = X(j,:).*exp(-j/(rand(1)*Max_iter));
      else
          X_new(j,:) = X(j,:) + randn()*ones(1,dim);
      end     
   end
   for j = PDNumber+1:pop
%        if(j>(pop/2))
        if(j>(pop - PDNumber)/2 + PDNumber)
          X_new(j,:)= randn().*exp((X(end,:) - X(j,:))/j^2);
        else
          %产生-1,1的随机数
          A = ones(1,dim);
          for a = 1:dim
            if(rand()>0.5)
                A(a) = -1;
            end
          end 
          AA = A'*inv(A*A');     
          X_new(j,:)= X(1,:) + abs(X(j,:) - X(1,:)).*AA';
       end
   end
   Temp = randperm(pop);
   SDchooseIndex = Temp(1:SDNumber); 
   for j = 1:SDNumber
       if(fitness(SDchooseIndex(j))>BestF)
           X_new(SDchooseIndex(j),:) = X(1,:) + randn().*abs(X(SDchooseIndex(j),:) - X(1,:));
       elseif(fitness(SDchooseIndex(j))== BestF)
           K = 2*rand() -1;
           X_new(SDchooseIndex(j),:) = X(SDchooseIndex(j),:) + K.*(abs( X(SDchooseIndex(j),:) - X(end,:))./(fitness(SDchooseIndex(j)) - fitness(end) + 10^-8));
       end
   end
  %边界控制
   for j = 1:pop
       for a = 1: dim
           if length(ub)>1
               if(X_new(j,a)>ub(a))
                   X_new(j,a) =ub(a);
               end
               if(X_new(j,a)<lb(a))
                   X_new(j,a) =lb(a);
               end
           else
                if(X_new(j,a)>ub)
                   X_new(j,a) =ub;
               end
               if(X_new(j,a)<lb)
                   X_new(j,a) =lb;
               end
           end
       end
   end 
   %更新位置
   for j=1:pop
     fitness_new(j) = fobj(X_new(j,:));
   end
   for j = 1:pop
    if(fitness_new(j) < GBestF)
       GBestF = fitness_new(j);
        GBestX = X_new(j,:);   
    end
   end
   X = X_new;
   fitness = fitness_new;
    %排序更新
   [fitness, index]= sort(fitness);%排序
   BestF = fitness(1);
   WorstF = fitness(end);
   for j = 1:pop
      X(j,:) = X(index(j),:);
   end
   curve(i) = GBestF;
    disp(['current iteration is: ',num2str(i), ', best fitness is: ', num2str(GBestF)]);
end
Best_pos =GBestX;  %全局最优位置 K  Alpha值组合
Best_score = curve(end);%全局最优适应度值  熵值最小
end