1、贝叶斯网络基础

首先复习一下贝叶斯公式

例题:分别有 A、B 两个容器,在容器 A 里分别有 7 个红球和 3 个白球,在容器 B 里有 1 个红球和 9 个白球,现已知从这两个容器里任意抽出了一个球,且是红球,问这个红球是来自容器 A 的概率是多少?

则有:P(红) = 8/20,P(A) = 1/2,P(红|A) = 7/10,其中P(红)表示整体上摸出红球的概率,P(A)表示选中A容器的概率,P(红|A)表示从A容器条件下摸出红球的概率

按照公式,则有:P(A|红) = P(红|A)*P(A) / P(红) = (7/10)*(1/2) / (8/20) = 0.875

1.1、朴素贝叶斯理论

朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。 

1.2、朴素贝叶斯理论的局限性

朴素贝叶斯理论假设各个特征属性条件独立,但是实际情况中这比较难满足,问题随之也来了,由于特征属性间存在依赖关系(如头像是否真实与好友密度之间),使得朴素贝叶斯分类不适用了。既然这样,需要寻找另外的解决方案。也就是贝叶斯网络

1.3、贝叶斯网络

一个贝叶斯网络定义包括一个有向无环图(Directed AcyclicGraph )和一个条件概率表集合。

DAG中每一个节点表示一个随机变量,可以是可直接观测变量或隐藏变量,而有向边表示随机变量间的条件依赖;条件概率表中的每一个元素对应DAG中唯一的节点,存储此节点对于其所有直接前驱节点的联合条件概率。

2、贝叶斯网络MATLAB编程实现

2.1、环境搭建

安装MATLAB,添加FULLBNT工具箱具体参考这里(http://blog.sina.com.cn/s/blog_6c7b434d01013ufz.html

注意MATLAB中字体需要设置为中文字体,才能在编辑器和命令窗口支持中文,否则汉字会显示为小方框

2.2、习题:是窃贼还是地震

福尔摩斯先生在他的办公室工作时接到了他邻居华生的电话。华生告诉他:他的家里可能进了窃贼,因为他家的警铃响了

被告知有窃贼闯入,福尔摩斯迅速开车回家。在路上,他听广播得知他家那里发生了地震。地震也有可能引起警报。这样,请问福尔摩斯先生应该回家抓贼还是迅速撤离该地区以躲避地震?

条件如下

题目分析:

简单讲,在路上的holmes需要判断是盗贼还是地震导致警铃?如果是前者,他需要回去抓贼,若是后者,则要逃离地震区。

所以图中虽然有5个节点,地震并不100%导致警铃,警铃也不100%导致华生的信号。

但是我们在得到信号,听到警铃的情况下,可以通过计算盗贼导致警铃的概率p1,和地震导致警铃的概率pp1来进行决策,也可以计算在地震发生条件下,盗贼导致警铃的概率p2。

如果p2比p1小,说明新添加的条件E才是导致A的主要原因。

2.3、具体实现:


%1、建立贝叶斯网络结构
N = 3; %三个节点,分别是B、E、A
dag = zeros(N,N);
B = 1; E = 2; A = 3; 
%节点之间的连接关系
dag(B,A) = 1;
dag(E,A) = 1; 
discrete_nodes = 1:N; %离散节点
node_sizes = 2*ones(1,N);%节点状态数
bnet =mk_bnet(dag,node_sizes,'names',{ 
    'BB','EE','AAA'
    },'discrete',discrete_nodes);

bnet.CPD{B} = tabular_CPD(bnet,B,[0.9 0.1]);%手动输入的条件概率
bnet.CPD{E} = tabular_CPD(bnet,E,[0.99 0.01]);
bnet.CPD{A} = tabular_CPD(bnet,A,[0.99 0.1 0.1 0.01 0.01 0.9 0.9 0.99]);
%2、画出建好的贝叶斯结构

draw_graph(dag);

%3、使用联合树引擎对贝叶斯网络进行推断
engine = jtree_inf_engine(bnet);
%4、求解边缘分布假设,
%我们要计算盗窃导致响铃的概率
evidence = cell(1,N);
evidence{A} = 2;

[engine, loglik] = enter_evidence(engine, evidence);
marg = marginal_nodes(engine, B);
p1 = marg.T(2);%算出p1=0.8412
%现在我们添加地震的证据观察它有什么不同
evidence{E} = 2;
[engine, loglik] = enter_evidence(engine, evidence);
marg = marginal_nodes(engine, B);
p2 = marg.T(2);%算出p2=0.1089
%结论是地震更能解释响铃这个主要事实
%联合概率分布
evidence = cell(1,N);
[engine, ll] = enter_evidence(engine, evidence);
m = marginal_nodes(engine, [B E A]);




1.     建好的贝叶斯网络

接下来添加R和W节点

2.4、修改上述代码


%1、建立贝叶斯网络结构
N = 5; %三个节点,分别是B、E、A、R、W
%分别代表盗贼、地震、警铃、广播、华生致电holmes;
dag = zeros(N,N);
B = 1; E = 2; A = 3; 
R = 4; W=5;
%节点之间的连接关系
dag(B,A) = 1;
dag(E,A) = 1; 
dag(E,R) = 1;
dag(A,W) = 1;
discrete_nodes = 1:N; %离散节点
node_sizes = 2*ones(1,N);%节点状态数
bnet =mk_bnet(dag,node_sizes,'names',{ 
    ' BB','EE','AAA','RR','WWW'
    },'discrete',discrete_nodes);
bnet.CPD{B} = tabular_CPD(bnet,B,[0.9 0.1]);%手动输入的条件概率
bnet.CPD{E} = tabular_CPD(bnet,E,[0.99 0.01]);
bnet.CPD{A} = tabular_CPD(bnet,A,[0.99 0.1 0.1 0.01 0.01 0.9 0.9 0.99]);
bnet.CPD{R} = tabular_CPD(bnet,R,[0.999 0.01 0.001 0.99]);
%概率表输入顺序:本节点状态不变,条件变化……
bnet.CPD{W} = tabular_CPD(bnet,W,[0.99 0.35 0.01 0.65]);
%2、画出建好的贝叶斯结构
draw_graph(dag);
%3、使用联合树引擎对贝叶斯网络进行推断
engine = jtree_inf_engine(bnet);
%4、求解边缘分布假设,
%我们要计算盗窃导致响铃的概率
evidence = cell(1,N);
evidence{A} = 2;
[engine, loglik] = enter_evidence(engine, evidence);
marg = marginal_nodes(engine, B);
p1 = marg.T(2);%算出p1=0.8412
%现在我们添加地震的证据观察它有什么不同
evidence{E} = 2;
[engine, loglik] = enter_evidence(engine, evidence);
marg = marginal_nodes(engine, B);
p2 = marg.T(2);%算出p2=0.1089
%结论是地震更能解释响铃这个主要事实
%联合概率分布
evidence = cell(1,N);
[engine, ll] = enter_evidence(engine, evidence);
m = marginal_nodes(engine, [B E A]);

运行结果也可看出R、W节点对决策无影响

3、BNT参数、结构学习

Bayesian 网络学习指的是通过分析数据儿获得Bayesian网的过程,它包括以下两种情况

①参数学习:已知网络结构,确定网络参数。

②结构学习:既要确定网络结构,又要确定网络参数。

我们可以一个贝叶斯网络看作一个黑箱,那参数学习,结构学习就是创造一个白箱{可能是我造的名词}尽可能模拟这个黑箱!

在前面的基础之上,我们可以轻松画出贝叶斯网络bnet{!当然,其每个节点的CPT都是题目给出的}。经过bnet处理之后的样本数据会输出得到训练数据data

在①情况下,构建一个和bnet节点个数,箭头指向相同的bnet1,接着借助BNT中的工具,将data和bnet1作为参数,就可以学习得到新的贝叶斯网络bnet2;

在②情况下,借助BNT中的工具,将data和其他数据{!具体参数见代码}作为参数,便可学习得到新的贝叶斯网络bnet3。

接下来使用如下语句便可以方便的输出一个贝叶斯网络中各个节点的CPT{!第一节输出CPT的方法容易理解但有些繁琐}


%输出bnet的CPT
CPT = cell(1,N);
for i=1:N
  s=struct(bnet.CPD{i});
  CPT{i}=s.CPT;
end
dispcpt(CPT{1})
dispcpt(CPT{2})
dispcpt(CPT{3})
dispcpt(CPT{4})
dispcpt(CPT{5})




详见代码

%这里使用的例子依然是“福尔摩斯模型”。
%首先我先如上面实验那样建立好贝叶斯网bnet,并手动构造条件概率表CPT。
%然后使用BNT里的函数sample_bnet(bnet)来产生nsamples个数据样本,
%nsamples分别取值20,200,2000。
%然后,再重新建立一个不知道条件概率表的贝叶斯网bnet2(结构和bnet相同),
%并把得到的样本作为训练集代入learn_params()函数进行学习,
%把学习到的条件概率表CPT2与手动构造的CPT进行了比较。参数学习部分代码:
 
clc;
clear;
%1、构造样本数据data
nsamples = 2000;
samples = cell(N, nsamples);
for i = 1:nsamples
    samples(:,i) = sample_bnet(bnet);
end
data = cell2num(samples);
 
 
%2、手动构造和bnet结构相同的bnet1
bnet1 = mk_bnet(dag,node_sizes,'discrete',discrete_nodes);
seed = 0;
rand('state',seed);
bnet1.CPD{B} = tabular_CPD(bnet2,B);
bnet1.CPD{E} = tabular_CPD(bnet2,E);
bnet1.CPD{W} = tabular_CPD(bnet2,W);
bnet1.CPD{R} = tabular_CPD(bnet2,R);
bnet1.CPD{A} = tabular_CPD(bnet2,A);
%参数学习得到新的贝叶斯网络bnet2
bnet2 = learn_params(bnet1,data);
 
%3、结构学习
order=[1 2 3 4 5];
ns=[2 2 2 2 2];
max_fan_in=2;
%结构学习函数
dag2 = learn_struct_K2(data ,ns, order,'max_fan_in', max_fan_in);
figure
draw_graph(dag2);
bnet3=mk_bnet(dag2,ns,'discrete',order);

利用输出语句CPT的语句可以得到

原贝叶斯网络bnet的CPT


1 : 0.9000 
2 : 0.1000 
1 : 0.9900 
2 : 0.0100 
1 1 : 0.9900 0.0100 
2 1 : 0.1000 0.9000 
1 2 : 0.1000 0.9000 
2 2 : 0.0100 0.9900 
1 : 0.9990 0.0010 
2 : 0.0100 0.9900 
1 : 0.9900 0.0100 
2 : 0.3500 0.6500 
1 : 0.9030 
2 : 0.0970 
1 : 0.9890 
2 : 0.0110 
1 1 : 0.9888 0.0112 
2 1 : 0.0990 0.9010 

1 2 : 0.1500 0.8500 
2 2 : 0.0000 1.0000 
1 : 0.9995 0.0005 
2 : 0.0000 1.0000 
1 : 0.9877 0.0123 
2 : 0.3302 0.6698 
engine2 = jtree_inf_engine(bnet3);
%新证据
evidence2 = cell(1,N);
[engine2, loglike] = enter_evidence(engine2, evidence2);
 
%计算节点B的CPT
marg2 = marginal_nodes(engine2,B);
marg2.T   
%计算节点E的CPT
marg2 = marginal_nodes(engine2,E);
marg2.T 
%计算节点W的CPT
marg2 = marginal_nodes(engine2,[W A]);
marg2.T 
%计算节点R的CPT
marg2 = marginal_nodes(engine2,[R E]);
marg2.T 
%计算节点A的CPT
marg2 = marginal_nodes(engine2,[A B E]);
marg2.T

clear;
clc
N=5;
%构造网络结构
dag=zeros(N,N);
C=1;U=2;W=3;B=4;D=5;
dag(C,U)=1;
dag(U,[W,B])=1;
dag([W,B],D)=1;
discrete_nodes=1:N;
node_sizes=2*ones(1,N);
bnet=mk_bnet(dag,node_sizes,'names',{'country','university','workhard','badbody','die'},'discrete',discrete_nodes);
%构造概率表
bnet.CPD{C}= tabular_CPD(bnet,C,[0.5,0.5]);
bnet.CPD{U}= tabular_CPD(bnet,U,[0.99,0.05,0.01,0.95]);
bnet.CPD{W}= tabular_CPD(bnet,W,[0.95,0.10,0.05,0.90]);
bnet.CPD{B}= tabular_CPD(bnet,B,[0.99,0.70,0.01,0.30]);
bnet.CPD{D}= tabular_CPD(bnet,D,[1.00,0.95,0.70,0.665,0.00,0.05,0.30,0.335]);
figure 
draw_graph(dag);
 
%输出bnet的CPT
CPT = cell(1,N);
for i=1:N
  s=struct(bnet.CPD{i});
  CPT{i}=s.CPT;
end
dispcpt(CPT{1})
dispcpt(CPT{2})
dispcpt(CPT{3})
dispcpt(CPT{4})
dispcpt(CPT{5})
%输出结束
 
engine=jtree_inf_engine(bnet);
evidence=cell(1,N);
engine=enter_evidence(engine,evidence);
%计算节点C的CPT
marg=marginal_nodes(engine,C);
marg.T
%计算节点D的CPT
evidence{W}=2;
evidence{B}=2;
[engine,loglik]=enter_evidence(engine,evidence);
marg1=marginal_nodes(engine,[W B D]);
marg1.T(2)
 
%构造样本数据
nsamples=2000;
samples=cell(N,nsamples);
for i=1:nsamples
    samples(:,i)=sample_bnet(bnet);
end
data=cell2num(samples);
bnet1=mk_bnet(dag,node_sizes,'discrete',discrete_nodes);
%手动构造条件概率表CPT
seed=0;
rand('state',seed);
bnet1.CPD{C}=tabular_CPD(bnet1,C);
bnet1.CPD{U}=tabular_CPD(bnet1,U);
bnet1.CPD{W}=tabular_CPD(bnet1,W);
bnet1.CPD{B}=tabular_CPD(bnet1,B);
bnet1.CPD{D}=tabular_CPD(bnet1,D);
%进行参数学习
bnet2=learn_params(bnet1,data);
%验证学习结果
engine2=jtree_inf_engine(bnet2);
evidence2=cell(1,N);
engine2=enter_evidence(engine2,evidence2);
%计算节点C的CPT
marg=marginal_nodes(engine2,C);
marg.T
%计算节点D的CPT
evidence2{W}=2;
evidence2{B}=2;
[engine2,ll]=enter_evidence(engine2,evidence2);
m=marginal_nodes(engine2,[W B D]);
m.T(2) 
 
%结构学习
order=[1 2 3 4 5];
ns=[2 2 2 2 2];
max_fan_in=2;
%结构学习函数
dag2 = learn_struct_K2(data ,ns, order,'max_fan_in', max_fan_in);
figure
draw_graph(dag2);
bnet3=mk_bnet(dag2,ns,'discrete',order);
clc;
clear;
%手工录入+1类和-1类的数据
sp = [1,0; 0,1; 2,2; -1,-1] %positive
sn = [0,0; 1,1;]%negative
data = [sp;sn]
datalabel=[1 1 1 1 0 0]; %分类
%groups为logical类型
groups = ismember(datalabel,1);
%交叉标记data为train和test两部分
[train,test]=crossvalind('holdOut',groups);
%核函数 mlp,预测准确率为0.3
svmStruct=svmtrain(data(train,:),groups(train),'kernel_function','mlp','showplot',true);
%预测准确率为0
%svmStruct2=svmtrain(data,groups,'kernel_function','mlp','showplot',true);
%加入参数[0.5 -0.5]之后,预测准确率为0.6
svmStruct3 = svmtrain(data,groups,'kernel_function','mlp','mlp_params',[0.5 -0.5],'showplot',true);
 
title(sprintf('核函数'))
cp=classperf(groups);%用来评价分类器
classes = svmclassify(svmStruct3,data(test,:),'showplot',true);
classperf(cp,classes,test);
cp.CorrectRate
 bnet=mk_bnet(dag,node_sizes);
        seed=0;%为了保证实验的可重复性
        rand('state',seed);
        for i=1:12
          bnet.CPD{i}=tabular_CPD(bnet,i);
        end
        bnet2=learn_params(bnet,data);%参数学习完毕
        for i=1:12
            s=struct(bnet2.CPD{i});%展示参数
            CPT3{i}=s.CPT;
        end
        dispcpt(CPT3{1})%展示第一个node的参数

engine=jtree_inf_engine(bnet2);%使用联合树搜索引擎
evidence=cell(1,7);%由于有7个可观测节点(包含是否脑卒中节点)
evidence{2}=2;
evidence{3}=1;
evidence{4}=2;%分别给出观测结果.为赋值的evidence是隐藏的,即evidence{i}=[]
[engine,loglik]=enter_evidence(engine,evidence);%The first return argument contains the modified engine, which incorporates theevidence. The second return argument contains the log-likelihood of theevidence
marg=marginal_nodes(engine,7)%计算第7个节点(dfStroke)的边缘分布