一、介绍
- 径向基函数网络(RBF网络)在matlab中有两种: rb和rbe
- 二者区别可以参考 (2条消息) RBF神经网络通用函数 newrb, newrbe_LY-林雨的博客
- 优点:结构简单、收敛速度快、能逼近任意非线性函数。
- 径向基函数网络由三层构成:
- 输入层:节点(神经元)个数等于输入的维数;
- 隐含层:节点(神经元)个数待定;
- 输出层:节点(神经元)个数等于输出的维数。
- 径向基函数能使线性不可分问题变得线性可分。
- 径向基函数网络还有两种变形,即概率神经网络(pnn)和广义回归神经网络(grnn)。
二、Matlab
- 在Matlab中,RBF网络不需要训练,创建了就可以使用。
- Matlab里的径向基函数网络有 netrb(近似的)(对应于广义网络) 和 netrbe(精确的)(对应于正则化网络) 两种。
- 对于 广义网络 和 正则化网络 先不用太纠结它是什么东西,二者只是略有区别。
三、对rbe、pnn和grnn 通过网络图与函数代码进行理解。
- rbe 在 Matlab中的网络框架图1与函数:
网络框架图1
function [w1,b1,w2,b2] = designrbe(p,t,spread)
[r,q] = size(p);
% r是输入的维数(隐藏层神经元个数),q是样本数,即每一列是一个样本
[s2,q] = size(t);
% s2是输出的维数(图1中的S2)(输出层神经元个数),q是样本数
w1 = p';
% 将p取转置,则变为q×r的矩阵,与网络框架图中IW的S1×R对应
% 则每一行是一个样本,是因为要使用”dist“函数,解释在下面
b1 = ones(q,1)*sqrt(-log(.5))/spread;
%spread很重要,但是这里为什么这样我还不太清楚
a1 = radbas(dist(w1,p).*(b1*ones(1,q)));
x = t/[a1; ones(1,q)];
% x就是图1的LW权重矩阵 (包含偏置的权重,偏置值为1)
w2 = x(:,1:q);
b2 = x(:,q+1);
end
- LW矩阵是权重矩阵,其元素个数是 S2XS1, S2是输出个数,如果是1的情况下,LW的列数就是S1,即向量a的元素个数 , 输出这里选择线性函数作为激活函数。
代码解读
Z=dist(W,P,FP)
- dist函数中,要求W的每一行是一个输入向量(样本),P中每一列是一个输入向量(样本)
- radbas 径向基函数
- pnn 在 Matlab中的网络框架图2与函数:
网络框架图2
function net = create_network(param)
% Data
p = param.inputs;
t = param.targets;
if iscell(p), p = cell2mat(p); end
if iscell(t), t = cell2mat(t); end
% Dimensions
[R,Q] = size(p);
[S,Q] = size(t);
% Architecture
net = network(1,2,[1;0],[1;0],[0 0;1 0],[0 1]);
%net = network(numInputs,numLayers,biasConnect,inputConnect,layerConnect,outputConnect)
%此示例说明如何创建一个单输入的两层前馈网络。只有第一层有偏置。输入权重从输入 1 连接到层 1。
%层权重从层 1 连接到层 2。层 2 是网络输出并有一个目标。
% Simulation
net.inputs{1}.size = R;
net.inputWeights{1,1}.weightFcn = 'dist';
net.layers{1}.netInputFcn = 'netprod';
net.layers{1}.transferFcn = 'radbas';
net.layers{1}.size = Q;
net.layers{2}.size = S; %S就是图上的K,即输入数据的种类数
net.layers{2}.transferFcn = 'compet';
net.outputs{2}.exampleOutput = t;
% Weight and Bias Values
net.b{1} = zeros(Q,1)+sqrt(-log(.5))/param.spread;
net.iw{1,1} = p';
net.lw{2,1} = t;
end
- grnn 在 Matlab中的网络框架图3与函数:
网络框架图3
function net = create_network(param)
% Data
p = param.inputs;
t = param.targets;
if iscell(p), p = cell2mat(p); end
if iscell(t), t = cell2mat(t); end
% Dimensions
[R,Q] = size(p);
[S,Q] = size(t);
% Architecture
net = network(1,2,[1;0],[1;0],[0 0;1 0],[0 1]);
% Simulation
net.inputs{1}.size = R;
net.layers{1}.size = Q;
net.inputWeights{1,1}.weightFcn = 'dist';
net.layers{1}.netInputFcn = 'netprod';
net.layers{1}.transferFcn = 'radbasn';
net.layers{2}.size = S;
net.layerWeights{2,1}.weightFcn = 'dotprod';
% Weight and Bias Values
net.b{1} = zeros(Q,1)+sqrt(-log(.5))/param.spread;
net.iw{1,1} = p';
net.lw{2,1} = t;
end