A General Method for Robust Bayesian Modeling 略读

论文略读

写在前面

最近在查阅一些有关稳健贝叶斯的方法,但是目前查到的大多数都是很早之前的文章,亦或是近年来比较specific的研究。比较general的只有一篇16年的A General Method for Robust Bayesian Modeling。读了引言觉得这篇文章讲的其实是localization的思想,因此稍做记录。

其实早一段时间我就读到过localization的概念,但是不知道它具体指的是什么,隐约觉得它是一种鲁棒(稳健)方法,而这篇文章就印证了当时的猜测。

另外,不知道大家如何翻译Localization,这里姑且叫局部化好了。如有不当,日后更正。

Bayesian + Localization

这篇文章的goal就是在一般贝叶斯概率框架下,说明一种general的稳健手段,减少异常点或者一些采样误差对原始贝叶斯模型的干扰。这种手段就是localization

它的思想很简单,就是考虑到使原始贝叶斯模型$\displaystyle p(\beta,\mathbf{x}|\alpha) = p(\beta|\alpha)\prod_{i=1}^n p(x_i|\beta)$出现推断误差的数据因素,即往往收集的观测数据中有异常点(outliers),有因收集或者测量误差导致的corrupted数据点。这些因素是数据本身质量的问题。在不知道哪些数据有问题的情况下,为了使模型能容忍它们的存在,可以稍稍改动贝叶斯原始模型的假设。

贝叶斯原始模型的假设是数据$\mathbf{x}$的分布由参数$\beta$生成,而参数$\beta$的分布族由参数$\alpha$生成。$\alpha$作为分布族的参数,保证的是$\beta$的结构,从而数据的生成也有一致的结构。但是异常点或者损坏数据并不符合这种假设,它们与其对应的真实数据(假设存在嘛,坏数据=真实数据+bias)之间有所差异,这种差异可以用方差描述,即它们是对应真实数据的偏离。这样每个数据都可以设置某种分布,由其真实值作为分布中心,同时允许不好的数据与之中心有所偏离。打个比方就是PRML中二维假设线性回归的数据点服从正态分布。这就是localization的概念,每个数据点都各自存在一个这样自己的分布,所以原始模型修饰为

好了,后面正常进行贝叶斯模型的推断和预测,可能要用到MAP或者VI,EM等方法,看情况使用吧$\sim$

参考文献

[1] Chong Wang and David M. Blei. A general method for robust bayesian modeling, 2015.