马氏链的跳转和mcmc算法样本有什么关系

遇到MCMC(Markov Chain Monte Carlo)采样很久了,翻来覆去看了很多遍,基本处于看了就忘,忘了再看的状态,所以简单总结下方便后面回忆。

随机模拟或统计模拟中的一个重要问题是给定一个分布,如何实现得到符合这个分布的采样样本。首先均匀分布比较简单,而且一些其他分布,如t分布,F分布,Beta分布也可以基于均匀分布转换得到,但当变量维数升高或分布变复杂时,就变得异常困难。这个时候Markov Chain马氏链提供了一个思路:基于平衡方程构造满足指定分布的的样本。
提到马氏链,大家都会想到它的数学定义:转移状态只跟最近的状态有关。

而它还有一个收敛性质:状态转移很多次收敛到平稳分布后,这个分布只与转移矩阵有关。可以联想,利用马氏链循环产生样本,以其收敛时的平稳分布为目标分布,由此得到对应分布的样本,当然这些样本并不独立。这个只与转移矩阵有关,而与初始分布无关。所以如何构造转移矩阵呢?又利用了细平稳条件(平衡方程)。

而一般这个方程很难满足,所以想到左右各乘一个其他的变量达到相等,这个变量成为接受率。 而取值只要满足如下即可

但如果这个接受率很小,大部分都不能跳转,那达到收敛的效率就太低了。所以一个改进就是使两边的变量之一最大化为1,如此得到

PS:算法中均匀分布采样是为了达到模拟概率的意义哈

只要接受率不为1,收敛效率都有改进的空间,由此诞生了Gibbs采样。它在满足平衡方程上使用的策略是坐标轮转,以二维举例:

所以只要保证一次只在一个坐标方向移动,那么这两个点都会满足平衡方程,而要移动的坐标是随机选择的,一般都是轮换着来。推广到多维,它的转移概率是:
}

内容提示:IRT模型参数估计的MCMC算法研究

文档格式:PDF| 浏览次数:2| 上传日期: 01:20:52| 文档星级:?????

全文阅读已结束,如果下载本文需要使用

该用户还上传了这些文档

}

1 蒙特卡罗方法:假设某个分布近似样本分布,通过接受-拒绝方法进行采样

1)输入我们任意选定的马尔科夫链状态转移矩阵QQ,平稳分布π(x)π(x),设定状态转移次数阈值n1n1,需要的样本个数n2n2

2)从任意简单概率分布采样得到初始状态值x0x0

上面这个过程基本上就是MCMC采样的完整采样理论了,但是这个采样算法还是比较难在实际中应用,为什么呢?问题在上面第三步的c步骤,接受率这儿。由于α(xt,x?)α(xt,x?)可能非常的小,比如0.1,导致我们大部分的采样值都被拒绝转移,采样效率很低。有可能我们采样了上百万次马尔可夫链还没有收敛,也就是上面这个n1n1要非常非常的大,这让人难以接受,怎么办呢?这时就轮到我们的M-H采样出场了。

如果两边同时扩大五倍,接受率提高到了0.5,但是细致平稳条件却仍然是满足的,接受率可以做扩展

M-H采样完整解决了使用蒙特卡罗方法需要的任意概率分布样本集的问题,因此在实际生产环境得到了广泛的应用。

但是在大数据时代,M-H采样面临着两大难题:

1) 我们的数据特征非常的多,M-H采样由于接受率计算式π(j)Q(j,i)/π(i)Q(i,j)的存在,在高维时需要的计算时间非常的可观,算法效率很低。同时α(i,j)一般小于1,有时候辛苦计算出来却被拒绝了。能不能做到不拒绝转移呢?

2) 由于特征维度大,很多时候我们甚至很难求出目标的各特征维度联合分布,但是可以方便求出各个特征之间的条件概率分布。这时候我们能不能只有各维度之间条件概率分布的情况下方便的采样呢?

Gibbs采样解决了上面两个问题,因此在大数据时代,MCMC采样基本是Gibbs采样的天下。

对马尔科夫细致平稳条件进行进一步推导,得出,如果固定一维、在其他维度进行采样,也符合平稳条件,也就是坐标轴轮换

}

我要回帖

更多关于 mcmc算法 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信