三、先验分布的确定

  1. 主观概率(离散型)
  1. 利用对立事件的比较确定主观概率,例如成功的概率比失败高一倍
  2. 利用专家意见确定主观概率
  3. 利用多位专家确定主观概率
  4. 利用历史资料,考虑现有信息加以修正
  1. 利用先验信息确定先验分布(连续型):
  1. 直方图法:
  1. 将参数空间分成小区间
  2. 在每个小区间上决定主观概率或依据历史数据确定其频率
  3. 绘制频率直方图
  4. 在直方图上做一条光滑曲线,即为先验分布
  1. 选定先验密度函数形式再估计超参数
  1. 根据先验信息选定贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图的先验密度函数贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_02形式
  2. 对分布中的超参数给出估计值,使最接近先验信息
  1. 定分度法与变分度法
  1. 定分度法:长度一样,概率不同的小区间,给出每个小区间的主观概率
  2. 变分度法:概率一样,长度不同的小区间,给区间进行划分
  1. 利用边缘分布确定先验密度,就是极大似然法
  1. 边缘分布m(x)
  1. 传统用贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_03
  2. 贝叶斯用边缘分布贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_04
  1. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_05
  2. 当先验分布有未知数的时候,例如贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_06,那么被积分之后m(x)变为与贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_07相关的函数,可记为贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_08
  1. 我们所需要做的就是求使贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_09达到最大的贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_10,也就是最大似然估计(最大似然二型估计)
  1. 混合分布:
  1. 变量x依概率贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_11在总体贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_12中取值,以贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_13在总体贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_14中取值,若贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_15分别是两个总体的分布函数,则x的分布函数为两个分布函数的加权相加:贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_16
  2. F(x)可以看做贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_15的混合分布
  3. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_11贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_13看做一个新的随机变量贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_20的分布
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_21
  4. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_22中抽取一个x,相当于进行两次抽样
  1. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_23中抽取一个样本贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_24
  2. 根据贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_24判定是从哪个总体中抽取样本x
  1. 混合样本:从混合分布中抽取出来的样本,大约有贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_26个来自总体1,其余的来自总体2
  1. 先验选择的ML-II(极大似然估计方法)
  1. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_27为所考虑的先验类,且贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_28是来自贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_29中某一分布的样本,若存在贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_30满足
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_31
    其中贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_32称为II型极大似然先验,或简称为ML-II先验
  2. 这里将m(x)看成似然函数,找一个贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_33使贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_34达到最大,也是一种最大化似然函数的方法
  1. 先验选择的矩方法
  1. 样本均值=总体均值
  2. 样本方差=总体方差
  3. 先计算总体的分布贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_03的期望贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_36和方差贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_37
  4. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_38
  1. 先验选择的矩方法
  1. 有大数定理
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_39
  2. 矩估计:已知统计结果或取样结果估算总体均值和总体方差
  1. 无信息先验分布
  1. 贝叶斯假设:无信息先验分布应该取贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_40取值范围内的均匀分布
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_41
  2. 广义先验密度:当贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_40的取值范围是无穷的时候,无法给出一个均匀分布,所以设置贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_40的先验分布为
  1. 贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_44
  2. 由此决定的后验密度贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_45是正常的密度函数
  3. 设密度参数中有两个参数贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_46,且密度函数具有如下形式:
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_47
    其中f(x)是完全确定的函数,它对应于贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_48时的密度,贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_49称为未知参数,贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_50称为尺度参数,这类分布族称为位置-尺度参数族,如正态分布、指数分布、均匀分布等
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_直方图_51时称为位置参数族,贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_人工智能_52时称为尺度参数族
  4. 位置参数的无信息先验:
    位置参数族的先验分布可用贝叶斯假设为无信息先验分布。
  5. 尺度参数的无信息先验:
    设总体X的密度函数具有形式:
    贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_贝叶斯岭回归pycharm_53
    则参数贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_深度学习_50的无信息先验分布为贝叶斯岭回归pycharm 贝叶斯岭回归先验分布_机器学习_55