Quantcast
Channel: 我爱自然语言处理
Viewing all articles
Browse latest Browse all 205

PRML读书会第十章 Approximate Inference

$
0
0

PRML读书会第十章 Approximate Inference

主讲人 戴玮

(新浪微博: @戴玮_CASIA

Wilbur_中博(1954123) 20:02:04

我们在前面看到,概率推断的核心任务就是计算某分布下的某个函数的期望、或者计算边缘概率分布、条件概率分布等等。 比如前面在第九章尼采兄讲EM时,我们就计算了对数似然函数在隐变量后验分布下的期望。这些任务往往需要积分或求和操作。 但在很多情况下,计算这些东西往往不那么容易。因为首先,我们积分中涉及的分布可能有很复杂的形式,这样就无法直接得到解析解,而我们当然希望分布是类似指数族分布这样具有共轭分布、容易得到解析解的分布形式;其次,我们要积分的变量空间可能有很高的维度,这样就把我们做数值积分的路都给堵死了。因为这两个原因,我们进行精确计算往往是不可行的。
为了解决这一问题,我们需要引入一些近似计算方法。

近似计算有随机和确定两条路子。随机方法也就是MCMC之类的采样法,我们会在讲第十一章的时候专门讲到,而确定近似法就是我们这一章讲的变分。变分法的优点主要是:有解析解、计算开销较小、易于在大规模问题中应用。但它的缺点是推导出想要的形式比较困难。也就是说,人琢磨的部分比较复杂,而机器算的部分比较简单。这和第十一章的采样法的优缺点恰好有互补性。所以我们可以在不同的场合应用变分法或采样法。这里我的一个问题是:是否可以结合二者的优点,使得人也不用考虑太多、机器算起来也比较简单?
变分法相当于把微积分从变量推广到函数上。我们都知道,微积分是用来分析变量变化、也就是函数性质的,这里函数定义为f: x -> f(x),而导数则是df/dx;与之相对,变分用到了泛函的概念:F: f -> F(f),也就是把函数映射为某个值,而相应地,也有导数dF/df,衡量函数是如何变化的。比如我们熟悉的信息论中的熵,就是把概率分布这个函数映射到熵这个值上。和微积分一样,我们也可以通过导数为0的条件求解无约束极值问题,以及引入拉格朗日乘子来求解有约束极值问题。比如说,我们可以通过概率分布积分为1的约束,求解最大熵的变分问题。PRML的附录D和E有比较详细的解释,我们后面也还会看到,这里就不多说了。
变分法这名字听起来比较可怕,但它的核心思想,就是从某个函数空间中找到满足某些条件或约束的函数。我们在统计推断当中用到的变分法,实际上就是用形式简单的分布,去近似形式复杂、不易计算的分布,这样再做积分运算就会容易很多。 比如,我们可以在所有高斯分布当中,选一个和目标分布最相似的分布,这样后面做进一步计算时就容易获得解析解。此外,我们还可以假设多元分布的各变量之间独立,这样积分的时候就可以把它们变成多个一元积分,从而解决高维问题。这也是最简单的两种近似。

概率推断中的变分近似方法,最根本的思想,就是想用形式简单的分布去近似形式复杂、不易计算的分布。比如,我们可以在指数族函数空间当中,选一个和目标分布最相像的分布,这样计算起来就方便多了。
显然,我们这里需要一个衡量分布之间相似性或差异性的度量,然后我们才能针对这个度量进行最优化,求相似性最大或差异性最小的分布。一般情况下,我们会选用KL散度:

或者,当然离散分布就不是积分而是在离散状态上求和。这个值是非负的,而且只在两分布完全相同的情况下取0,所以可以看成两分布之间的距离。但这种度量是不对称的,也就是,而我们在优化的时候,这两种度量实际上都可以使用。这样一来,我们后面也会看到,会造成一些有趣且奇怪的现象。有了这个度量,我们就可以对某个给定的概率分布,求一个在某些条件下和它最相似或距离最小的分布。这里我们看几个例子,直观地认识一下KL散度的不对称性、以及产生这种不对称性的原因。这是两个方差不同的一元高斯分布,其中方差较小的是q(红色曲线),方差较大的是p(蓝色曲线):

根据KL散度的公式,我们能否估计一下,是KL(q||p)较大,还是KL(p||q)较大?我们可以看到,在曲线的中间部分,q(x) > p(x),因此,如果光考虑这部分,显然KL(q||p)会比较大。但是,考虑两边 q(x) < p(x) 的部分,我们可以看到,q(x) 很快趋近于0,此时 p(x)/q(x) 会变得很大,比中间部分要大得多(打个比方,0.8/0.4 和 0.01/0.001)。尽管还要考虑 log 前面的 q(x),但当 q(x) 不等于0时,分母趋近于0造成的影响还是压倒性的。所以综合考虑,KL(q||p)要小于KL(p||q)。它们的精确值分别为0.32和0.81。另一个例子是,如果两个高斯分布方差相等,则KL散度也会相等:

这一点很容易理解。再来看一个复杂一点的例子。在这个例子中,q是单峰高斯分布,p是双峰高斯分布:

这三种情况中,p的两个峰没有分开,有一定粘连,而q则分别拟合了p的左峰、右峰(见PRML 4.4节的拉普拉斯近似,上次读书会也简单介绍过,可参看上次读书会的总结),以及拟合p的均值和方差(即单峰高斯分布的两个参数)。三种拟合情况对应左、中、右三图。对于这三种情况,KL(q||p)分别为1.17、0.09、0.07,KL(p||q)分别为23.2、0.12、0.07。可以看到,无论是哪一种KL散度,在p的双峰没有完全分开的情况下,用单峰高斯q去近似双峰高斯p得到的最优解,都相当于拟合p的均值和方差。如果p的两个峰分开的话,情况会如何呢?

和前一个例子一样,我们分别拟合p的左峰、右峰,以及均值和方差。显然,这里由于p中间有一段概率密度为0的区域,所以可以想见,KL(q||p)可能会比较大。实际情况也是如此:KL(q||p)分别为0.69、0.69、3.45,KL(p||q)分别为43.9、15.4、0.97。可以看到,如果用KL(p||q)做最优化,结果和双峰粘连时一样,仍然是拟合p的均值和方差,也就是所谓的moment-matching;而用KL(q||p)做最优化,结果则会有所变化:会拟合双峰的其中一峰,也就是所谓的mode-seeking。
我们从前面这几个例子中,可以总结一个规律:用KL(q||p)做最优化,是希望p(x)为0的地方q(x)也要为0,否则q(x)/p(x)就会很大,刚才例子的右图在中间部分(5附近)就违背了这一点;反之,如果用KL(p||q)做最优化,就要尽量避免p(x)不为0而q(x)用0去拟合的情况,或者说p(x)不为0的地方q(x)也不要为0,刚才例子的左、中两图也违反了这一点。
所以,KL(q||p)得到的近似分布q(x)会比较窄,因为它希望q(x)为0的地方可能比较多;而KL(p||q)得到的近似分布q(x)会比较宽,因为它希望q(x)不为0的地方比较多。
最后看一个多元高斯分布的例子,书上的图10.3:

即有了前面的讲解,我们可以猜一下,哪些图是KL(q||p)得到的最优解,哪些图是KL(p||q)得到的最优解。
由于KL(q||p)至少可以拟合到其中的一个峰上,而KL(p||q)拟合的结果,其概率密度最大的地方可能没什么意义,所以很多情况下,KL(q||p)得到的结果更符合我们的需要。到这里有什么问题吗。。理解理解。。KL散度这东西。

============================讨论=================================

飞羽(346723494) 20:24:23
KL(q||p) 就是相当于用q去拟合p?
Yuli(764794071) 20:25:31
KL就是KL Divergence(相对熵)吧 用信息论来解释的话 是用来衡量两个正函数是否相似
飞羽(346723494) 20:25:57
对, 就是相对熵
Wilbur_中博(1954123) 20:27:06
嗯,我们现在有一个分布p,很多时候是后验分布,但它形式复杂,所以想用形式比较简单的q去近似p。其实也可以直接用后验分布的统计量,比如mode或mean去代替整个分布,进行进一步计算,比如最大后验什么的。但现在如果用近似分布去做预测的话,性能会好得多。
linbo-phd-bayesian(99878724) 20:27:15
请问为何KL(q||p)》=0,为何没有《0啊,有知道的吗?
飞羽(346723494) 20:28:06

Wilbur_中博(1954123) 20:29:21
那个不太难证,利用ln凹函数性质可以证出来。。不过细节我忘记了,呵呵。查一查吧。。应该很多地方都有的。

逸风(421723497) 20:30:44
PRML P56
Wilbur_中博(1954123) 20:31:50
总之就是利用KL作为目标函数,去做最优化。。找到和已知复杂分布最相近的一个近似分布。这一章的基本思路就是这样。具体动机最开始的时候已经提到过了。

逸风(421723497) 20:35:31
为什么要用KL散度这样一个不具备对称性的”距离”,而不采用对称性的测度呢?有什么好处?
Wilbur_中博(1954123) 20:37:15

似乎没有特别好的对称的度量?PRML的公式(10.20)提过一种叫Hellinger distance的度量,是对称的,但后来也没有用这个。不知道为什么。不容易优化?有没有了解原因的朋友。。比如说,为啥不用 (p(x) – q(x) ^ 2 做积分作为度量? 或者其他什么的。
WayneZhang(824976094) 20:41:52
我感觉是优化求解过程中近似时自然而然导出了KL这个度量。
karnon(447457116) 20:42:24
KL算的是熵的增益,所以一定是那种形式 ,这取决于你怎么定义”近似”, 认为信息增益最少就是”近似”也是一种合理的定义
Wilbur_中博(1954123) 20:43:07
这里目的是为了找近似分布

========================讨论结束=================================

我们在PRML这本书的4.4节,其实看到过一种简单的近似方法,或者可以说是最简单的近似方法之一:拉普拉斯近似。它是用高斯分布去近似目标分布的极值点也就是mode。这里并没有涉及到变分的概念。
它只是要求高斯分布的mode和目标分布的mode位置相同,方法就是把目标分布在mode处做泰勒级数展开到第二阶,然后用对应的高斯分布去代替,就是把未知系数给凑出来:

这是目标分布在\theta^*(mode)的二阶泰勒展开:

一比较就知道高斯分布的两个参数应该取:

也就是PRML图10.1的红线:

棕色部分是目标分布,绿线是我们用变分近似,在高斯分布中选一个和目标函数的KL散度最小的分布。
反正就均值和方差两个未知参数,优化起来应该不难。

 

下面开始讲10.1.1 可分解分布,这一节非常重要,可以说是本章的基础和最重点的部分。基本思想就是,我们把近似分布限制在可分解分布的范围内,也就是满足(10.5)式:

可以说,这个分布的各组变量Z_i互相之间是独立的。这样一来,我们计算这个分布的积分时,就可以变成多个较低维度的积分,就算用数值积分什么的也会简单很多。 在统计物理当中,这种可分解形式的变分近似方法称作平均场(mean field)方法,这个名字实际上是很直观的,和它最后得到的解的形式有关,我们马上会看到。不过现在不仅在统计物理领域,机器学习很多时候也就管它叫mean field了。现在很火的RBM什么的,求参数时经常能看到这个术语。
上一章曾经讲过,最小化KL距离,和最大化下界L(q)是一回事,也就是(10.2)到(10.4)这三个式子:



这和9.4节当中(9.70)到(9.72)实际上是一样的,区别在于Z不仅是隐变量还把参数吸收了进来。等式左边那项和我们想求的Z无关,所以可以看成常数,而右边的p(Z|X)是我们想去近似的,不知道具体形式,所以可以间接通过最大化右边第一项来达到最小化右边第二项也就是KL散度的目的。
根据上面的(10.5)式会得到公式(10.6):

我们这里也可以看MLAPP的(21.28)到(21.31):

推导得要详细得多。。所以多备几本参考书是必要的。
MLAPP是Machine Learning – A Probabilistic Perspective的缩写。。群共享里应该有吧。很不错的机器学习书。
huajh7(284696304) 21:02:10
插一句。这里优化的目标其实是最大化low bound L(q)  (log P(D)是对数证据,常数,KL(Q||P)=0时,L(Q)最大)。也就是找到一个最合适的q分布,而不是优化参数。 优化过程中,求导,拉格朗日什么,是针对q分布的,也就是泛函。 这是为什么叫变分法:

Wilbur_中博(1954123) 21:03:04
好,谢谢。我看了你的博客http://www.blog.huajh7.com/variational-bayes/,文章写得很好。你好像毕业论文就是专门做这个的吧? 也许你下次可以再专门讲一讲你对变分近似的心得体会,呵呵。
简单说,这里的推导就是每一步只看q_j相关的那些项,和q_j无关的项全都归到常数里去。比如(21.30)的这部分:

实际上就全扔到常数里去了。哦。。还少了个(21.32):

这里我们是在除了x_j之外的其他x_i上求期望,也就是这个东西:
,它是关于x_j的函数。

下面讲一下10.1.1的可分解分布,也就是刚才说过的,假设多元分布可分解为多个一元分布的乘积,即用去近似p(x)。由于各个变量之间是解耦的,所以我们可以每次只关注单个变量的最优化,也就是用所谓坐标下降(coordinate descent)的方式来做最优化。具体做法,就是把最小化KL散度转化为最大化L(q)(参见公式(10.2)到(10.4)),然后把公式(10.5)代入(10.3),每次把L(q)其中一个q_j当做变量,而把其他q_i当做常数,对L(q)进行最优化:

这里:
前面讲过,KL散度也可以写成:,可以看到,(10.6)最后得到的这个,恰好是负KL散度的形式。我们知道,KL散度为0也就是最小的时候,两分布恰好相同,因此每一步的最优化结果可得到:
也就是每一步更新的结果,可得到分解出来的变量的分布为:

就是两边都取exp然后归一化。由于是以其他变量的均值作为当前变量分布的形式,所以这种方法也称作mean-field。这部分内容也可以参见MLAPP的21.3.1,那一节讲得感觉比PRML清楚一些。 那个公式是比较头疼。。不过只要记住只有一个q_j是变量,其他都当成常数,推一推应该也ok。

重新回顾下前面的内容:

变分推断的核心思想是:用形式比较简单、做积分运算比较容易的分布,去替代原先形式复杂、不易求积分的分布。因此,这里的主要问题就是:如何找到和原分布近似程度较高的简单分布。前面我们讲了一些变分推断的背景知识和KL divergence(KLD)的相关知识,还稍微讲了讲假设分布可分解时是如何推导出mean field形式的。KLD是衡量两个分布差异大小的方式之一,KLD越大则差异越大,反之则两分布越相似。因此,我们可以将KL(q||p)作为目标函数,并限定q为较简单的分布形式,找到这类分布中最接近原分布p的那个分布。我们这里主要关注的近似对象是后验分布。因为我们前面一直在讲如何求后验分布,但后验分布求出来的形式往往不那么好用,所以需要用简单分布去近似。然而,计算p(Z|X)需要计算归一化因子p(X)。p(X)是边缘分布,需要对p(Z,X)做积分,而p(Z,X)又不那么容易积分。因此,我们可以直接用未归一化的p(Z,X)作为近似计算的目标,也就是下面这个关系:

其中:

这里ln(p(X))只是个常数,所以极小化KLD和极大化L得到的结果是一样的,但对L做最优化可直接用联合概率分布去做、而不用归一化。:我们想要得到的简单分布具有什么样的形式?我们喜欢的一种简单分布是可分解分布,就是说,我们可以假设各个隐变量Z_i之间是独立的,因此可拆成各隐变量分布的乘积:

那么,各个隐变量的L可写为:

其中

这里表示:



这是对Z_j之外的其他所有随机变量求期望,也叫做mean field。极大化L相当于极小化,显然取和完全相同的形式时,KLD极小,同时L极大。所以我们有最优解:

这里p是已知的,所以可对它做积分。对除Z_j以外的随机变量求期望得到的分布,就是分解出来的q_j的分布。我们每一步迭代都对每一个分解分布q_j进行求解。这种方法也称做coordinate descent。

============================讨论=================================

一夏 吕(992463596) 21:15:06
10.6后面有,10.7的const没有必要吧?我当时好像看懂了 做的笔记 现在一下看不懂了。。 后面那个很简单 是因为  其他的Zi积分为1。我记起来了 ,把后面的lnqi的和拆开,只把j的那一项留着,其他的都可以积分积掉,划到const里,这里主要是吧j的那一项拿出来表示,其他的 不相干的都不管。
huajh7(284696304) 21:25:23
有必要吧。否则不相等了,这里const表示归一化常量。实际上需要特别注意const,尤其自己推导的时候,const更多是表示与z_j无关的量,而不是指一个常量。在概率图中就是不在z_j的马尔科夫毯上的量。阿邦(1549614810) 21:26:08
mean filed看koller的最清楚

一夏 吕(992463596) 21:26:57
注意Z是大写,所以j的那个积分里 其他的i都积分为1了。
huajh7(284696304) 21:27:48
const 有必要。exp(E_{i~=j}[..]) 是没有归一化的。

一夏 吕(992463596) 21:28:23
哪里有exp

huajh7(284696304) 21:28:32
ln .

软件所-张巍<zh3f@qq.com> 21:26:42
问个问题:用分解的分布去近似原始分布,精度怎么保证,有没有直观点的解释。
Wilbur_中博(1954123) 21:28:32
@软件所-张巍 的问题是好问题啊。。一般来说,似乎是把变分近似看作在MAP和贝叶斯推断(用整个分布)之间的一种trade-off?
huajh7(284696304) 21:29:54

 给个图 :


Wilbur_中博(1954123) 21:30:01
因为一个是用后验分布的点估计,一个是用整个分布,不错,这是哪里的图?
huajh7(284696304) 21:32:23
variational bayeian 可以说是分布式distributional approximation,也就是wilbur说的,用的是整个分布。 The Variational Bayes Method in Signal Processing这本书的 第9页。
李笑一(94755934) 21:32:46
@张巍,我记得变分法能保证收敛到local minimum。一般情况下,最大似然是non convex的,但是变分下界却是convex,下界的minimum就是下一步要前进的方向。
一夏 吕(992463596) 21:33:23
但是变分法的前提是把dependence去掉了,这样才能把总概率拆开成各自概率的积。即使是convex的 ,也只是逼近原先intractable 的形式。10.7的那个我还是觉得const没必要。
Wilbur_中博(1954123) 21:36:04
其实就是没归一化的,所以要加个const,(10.9)那个也是这样
一夏 吕(992463596) 21:36:17
后面那个是求期望,就是上面那个花括号里的
李笑一(94755934) 21:36:30
@huajh7,图上看来,EM更好使???
一夏 吕(992463596) 21:37:16
EM是可解的时候用的,只是有隐变量
秦淮/sun人家(76961223) 21:37:31
EM是可以求得精确地后验

Happy(467594602) 21:38:30
直观解释 请参照jordan写的introduction
huajh7(284696304) 21:38:33
10.6-10.9 就是利用KL(q||p)=0

分母就是const,VB也可以看成是EM。

一夏 吕(992463596) 21:41:00
@Happy  jordan的introduction 是他的那本书吗?
Happy(467594602) 21:41:20
introduction to variational methods in graphical model
用简单分布的族 把复杂分布包裹起来 ,然后复杂分布的每一点都有一个简单分布的参数来近似
一夏 吕(992463596) 21:42:47
thanks 他还有一本书 是Graphical Models, Exponential Families, and Variational Inference
huajh7(284696304) 21:43:25
Neal,HintonA view of the EM algorithm that justifies incremental, sparse,and other variants.pdf 这篇文章 说EM,其实就是变分贝叶斯。
Happy(467594602) 21:43:25
后一本太难了。。
李笑一(94755934) 21:43:26
@huajh,弱弱的问一下,分母将Z marginalize掉这步只是在推导中出现是吧,编程的时候不会出现实际的过程?
huajh7(284696304) 21:44:06
写程序的时候,还是还归一化的。比如,GMM中的隐变量,全部算出来之后,然后再归一化。

一夏 吕(992463596) 21:45:37
如果隐变量很多不是exponential个组合了

huajh7(284696304) 21:46:01
就转化为exponential
Wilbur_中博(1954123) 21:46:01
mean field的过程中呢?每个Z_j的分布也都要归一化么?@huajh7
Happy(467594602) 21:46:16
我咋记得不用归一化。。mean-field
一夏 吕(992463596) 21:46:18
那就很费时间
huajh7(284696304) 21:46:45
后来会知道。算的是充分统计量。
一夏 吕(992463596) 21:46:46
如果有64个,每个01分布就是2^64次方
李笑一(94755934) 21:47:33
恩,partition function永远是问题
Happy(467594602) 21:47:35
程序里面没有归一化步骤吧,推导中体现了
李笑一(94755934) 21:48:12
啥叫充分统计量?
huajh7(284696304) 21:48:16
概率才归一化啊。
Happy(467594602) 21:48:30
指数族里面有
huajh7(284696304) 21:48:35
充分统计量能完全表示一个分布。对

一夏 吕(992463596) 21:49:29
不用归一化吧,看10.9 10.10中间那个公式下面那段话
huajh7(284696304) 21:49:42
为什么是指数族。。。一个最主要的原因就是其充分统计量是可计算的
Happy(467594602) 21:50:03
这个jordan后面那个书有深入介绍。。
一夏 吕(992463596) 21:51:09
通常不需要求出分布,而是得到分布的类型和参数
huajh7(284696304) 21:51:33
@一夏 吕 可能理解不一样。归一化不是指计算那个积分(partition function)..
一夏 吕(992463596) 21:51:41
通常就是指数族,自然服从积分为1
Happy(467594602) 21:52:25
没有自然哈 也有归一化系数

一夏 吕(992463596) 21:53:00
恩 但是那个是和分布本身有关的,知道了参数就可以推,比如高斯的方差

李笑一(94755934) 21:56:38
这部分有没有类似的书写的不错的。直接讲替代教材得了
Happy(467594602) 21:57:29
jordan那个不错,不过主要是针对graphical model的
Wilbur_中博(1954123) 21:58:14
我除了PRML和MLAPP,还看了一下Bayesian Reasoning and Machine Learning的最后一章
一夏 吕(992463596) 21:58:16
有看多lda的吗 那个里面的variational inference和这个方法完全不同
Happy(467594602) 21:58:28
肿么不同。。
秦淮/sun人家(76961223) 21:58:33
@一夏 吕 其实是一样的
huajh7(284696304) 21:58:33
bishop不喜欢详细推导的。讲清楚就行。这里有篇:

A Tutorial on Variational Bayesian Inference (http://staffwww.dcs.shef.ac.uk/people/c.fox/fox_vbtut.pdf)  还是很清楚的 。LDA 。其实是一样的。。建立的图模型上,比较直观。
秦淮/sun人家(76961223) 21:59:37
LDA那篇文章就是使用的mean field
一夏 吕(992463596) 21:59:38
blei用拉格朗日乘子法做的。。
Happy(467594602) 21:59:46
一样的啊。。
秦淮/sun人家(76961223) 22:00:02
不同的优化方法而已……
huajh7(284696304) 22:00:03
嗯。其实是一样的。
秦淮/sun人家(76961223) 22:00:12
本质是一样的
Happy(467594602) 22:00:21
直觉一致
秦淮/sun人家(76961223) 22:00:26
不一样的是Expectation propagation 那篇
huajh7(284696304) 22:00:37
对。那个感觉有些难。
一夏 吕(992463596) 22:00:40
恩 也是搞kl距离  方法各不相同
Happy(467594602) 22:01:52
对这些有兴趣就看jordan的大作吧,这些全部都归到架构里去了
一夏 吕(992463596) 22:05:45

http://www.cs.princeton.edu/courses/archive/fall11/cos597C/lectures/variational-inference-i.pdf

推荐这个 blei的讲义

一夏 吕(992463596) 22:09:18
variational inference 是不是只是对指数族的才有用?
Happy(467594602) 22:09:26
一样的 统计模型下
一夏 吕(992463596) 22:10:04
我一般只在贝叶斯学派的文章里见到,一般都用Gibbs sampling
Happy(467594602) 22:10:16
也不一定。。
一夏 吕(992463596) 22:11:00
比如rbm就不能用variational inference
Happy(467594602) 22:11:21
可以啊,mean-field必须可以用

天际一线(1002621044) 22:19:40
lda 那个话题模型 谁有完整的算法啊
Happy(467594602) 22:23:48
lda老模型了吧。。程序应该多如牛毛
秦淮/sun人家(76961223) 22:24:22
对啊,mean field ,expectation propagation ,gibbs sampling,distributed ,online的都有
一堆
_Matrix_(690119781) 22:28:18

https://github.com/sudar/Yahoo_LDA 这个可能满足你的要求

陪你听风(407365525) 22:31:18
在效果上,variational inference,gibbs sampling两个谁更好呢

秦淮/sun人家(76961223) 22:38:35
sampling近似效果好,慢,不好分布式计算
陪你听风(407365525) 22:39:08
vb比较容易分布式吗
huajh7(284696304) 22:40:24
噗。VB是可以很自然地分布式的。。

李笑一(94755934) 22:42:16
弱问。。VB为啥自然可以用分布式
huajh7(284696304) 22:45:22
利用variational message passing 框架下即可。。。节点之间传递充分统计量。充分统计量(一阶矩,二阶矩)的consensus或diffusion是有较多paper的。图模型中的BP或loopy BP算一种分布式嘛?

李笑一(94755934) 22:48:28
有个问题,不同问题的vb是否需要自己推导出来?不能随意套用别人的推导呢?
huajh7(284696304) 22:49:05
推导框架。如出一辙。。但自己推并不容易的。

李笑一(94755934) 23:04:01
karnon,一篇jmlr的文章,在一个问题上证了vb 的全局解
Global Analytic Solution of Fully-observed Variational Bayesian Matrix Factorization

看明白了给讲讲。。。
huajh7(284696304) 23:10:47
2,3年前就出来了。。这篇估计是combined and extended。
light.(513617306) 23:15:13
这个是证明了在矩阵分解这个问题上的全局最有,不证明在其他模型上也是这样。》?
karnon(447457116) 23:15:34
这就已经很牛了

李笑一(94755934) 23:17:43
vb对于不同问题有不同的解,我觉得除非熟到一定程度了,否则不可能拿来一个问题就能用vb的
karnon(447457116) 23:21:29
我看看,我知道最近有些文章研究全局收敛的矩阵分解问题,粗翻了一下,好像说的是把vb转成一个等价的svd问题?
========================讨论结束=================================

接着主要讲几个变分推断的例子,试图阐述清楚变分推断到底是如何应用的。首先是二元高斯分布的近似。我们假设二元高斯分布是可分解的,也就是两变量之间独立。
二元高斯分布
其中

可分解形式为:
我们想用q(z)去近似p(z),用前面推导出来的(10.9):

因为是求z1的分布,所以按(10.9),我们在z2上求期望,得到(10.11)。然后,我们就可以祭出第二章修炼的法宝——配方法,从(10.11)得到高斯分布:

其中

同样,z2的分布也可如法炮制:

其中

它们是完全对称的。因为m1里有z2的期望,而m2里又有z1的期望,所以我们可以设一个初始值,然后迭代求解。但实际上这两个式子恰好有解析解:,我们可把它们代入(10.13)和(10.15)验证一下。
下面我们重点看一下参数推断问题,但其核心思想实际上和前面讲的例子区别不大。同样还是先看一下高斯分布:
我们想推断后验高斯分布的均值和精度
假如我们观察到N个数据,那么似然函数就是:

另外引入先验分布,均值服从高斯分布、精度服从Gamma分布:

其实这个问题我们前面第二章就讲过,不用变分推断也能直接求出来,但这里用变分推断实际上增加了更多的灵活性,因为如果先验和似然的形式不是高斯-Gamma的形式,而是更加复杂,那么我们也可以利用变分推断来算参数,这是非常方便的。我们这里只是用我们熟悉的高斯分布来举例子,把这个弄明白,以后再推广到其他例子上就容易多了。
利用mean field形式(10.9),我们可计算出的分布:

可以看到,服从高斯分布形式,且通过配方,可得到该分布参数为:

注意到,样本越多也就是N越大时,均值会趋向于样本均值,同时精度趋向于无穷大。同样可用(10.9)计算的分布,得到:

它服从Gamma分布形式,可以看到,(10.27)和(10.30)里,仍然有和另一分布相关的期望需要计算,所以我们可以设定初始值,然后迭代计算。迭代过程和收敛后的结果图书上10.4所示:

再看一个例子,是用变分推断计算线性回归的参数。线性回归的参数w,有似然和先验如下:

2.3.6讲过,的共轭先验是Gamma分布:

这样联合分布就是:

其概率图模型为图10.8:

利用变分推断来计算w和,同样是假设它们有可分解形式:

再用(10.9)(这个绝对是看家法宝)来搞,得到:

可看到它服从Gamma分布:

其中

以及:

可看到它服从高斯分布:

其中

(10.95)和(10.97)里还有奇怪的东西,从附录B可知,它们分别是:

所以我们仍然可以迭代计算:给初始值,每一步都算出a_N、b_N和m_N、S_N,代入求解。
掌握了上面的三个例子,我想推广到其他情况也都没有太大难度了。其实书中还有一个例子也非常重要,就是10.2所讲的用变分推断计算高斯混合模型的参数。不过我想尼采兄讲第九章时已经打下了很好的基础,再加上刚才讲的这一章的例子,看懂这部分应该不难。
后面还有一些有趣的内容,比如Expectation Propagation,是说对做极小化,而不是。因为积分里前面那项变成了p(Z)而不是q(Z),而p(Z)又是复杂分布,所以这里处理方式有所不同。感兴趣的朋友可以看看10.7节是如何做的。
我讲的内容就到这里。我个人的一点心得体会就是:高斯分布以及其他常用分布的形式、还有第二章讲到的配方法一定要掌握好,这是识别分布和直接计算分布参数的最大利器。然后就是这一章的(10.9),也就是用可分解分布去做近似得到的mean field,这也是比较常用的。其实群里有不少对变分推断很了解的高手,比如@huajh7 ,大家对这一块有什么问题也可以找他们交流讨论。

============================讨论=================================

数据挖掘(983272906) 21:44:16
这种分解有没有什么限制条件
Wilbur_中博(1954123) 21:45:20

 这不是分解,是从先验和似然算联合分布。可分解的简单分布形式是(10.91)。
Y(414474527) 21:47:49
变分推断怎么应用到实际问题中呢
tzk<tangzk2011@163.com> 21:48:29
LDA的原始论文用的也是变分呢。。
<(523723864) 21:48:43
10.9式一定是tractable的吗?
zeno(117127143) 21:52:58
平均场假设可以有效减少参数。
Wilbur_中博(1954123) 21:53:54
@Y 实际问题吗?我觉得就是作为一种工具,求解模型参数的时候会比较简单吧。之前在稀疏编码里看到过一些,我觉得这篇文章不错:http://ipg.epfl.ch/~seeger/lapmalmainweb/papers/seeger_wipf_spm10.pdf 。另外RBM似乎也有用这个的。
zeno(117127143) 21:54:19
变分把推断变为求极值问题,怎么求是另外一门课
Wilbur_中博(1954123) 21:54:43
@< 我觉得不一定。。还得看p(X,Z)是什么样的。
@zeno 嗯
<(523723864) 21:55:01
按照10.9主要是推式子咯,事先不知道qj的分布

Wilbur_中博(1954123) 21:55:57
嗯,应该是。。但是一般来说都可以想办法搞出来吧,(10.9)的积分。
karnon(447457116) 21:59:27
为什么一开始又要用复杂分布呢,建模时用那些复杂的模型,最后到求解时都退化成naive模型,所以事实上,和naive模型一样
Wilbur_中博(1954123) 22:02:31
可能一开始就用简单分布的话,推出后验分布有连锁效应,就会越来越差吧。现在搞出后验分布再用简单分布去近似,我觉得道理上还是能说得通。
zeno(117127143) 22:03:27
那为啥有泰勒展开,展开把高次舍弃,不都不是原来函数了吗
<(523723864) 22:04:21
关键是每次迭代的时候lower bound会不会上去
karnon(447457116) 22:04:22
如果你要用 taylor展开来近似,那就得证明近似后你的解的性质不变 ,所以不是任何问题都能随便近似
Wilbur_中博(1954123) 22:04:43
@< 是,我觉得这个蛮关键的

karnon(447457116) 22:06:49
就是你的解为什么好,它好在哪,近似之后,这些好处是不是还保留着,这在变分法中,完全没有讨论
zeno(117127143) 22:10:58
要是有kl跟概率差异定量关系就没问题了,平均场本来就是假设,变分推断是合理的,kl嘛,不好说,反正不像熟悉的欧式度量,pgm不只变分一种推断方法,所以也不能建成简单模型。说实在如果能解决一类小问题效果不错就已经很好了,mrf,hmm,crf,都能算到pgm中。pgm解决不少问题。

阿邦(1549614810) 23:41:20
推断方法不坑,主要还是模型的问题
karnon(447457116) 0:02:10
我总感觉,一定有基于非概率模型的方法

弹指一瞬间(337595903) 6:31:34
昨晚大家讨论的好热闹啊。@karnon:我觉得近似推理对原模型的好处还是保留着的。虽然求解的时候是在简单模型上做,但是简单模型的求解目标是去近似原模型的最优而不是简单模型的最优。这个和一上来就做简单模型假设是不大一样的。近似推理可以理解为在最优解附近找一个次优解,但总体目标还是原模型最优解的方向。而简单模型求解可能目标就不一样了。相比之下,还是用近似推理来解原问题比较好。(个人理解不一定对,欢迎跟帖
zeno(117127143) 6:52:44
我喜欢概率模型,概率既能对不确定性建模更能对未知建模。做单选题25%表达的是学生对答案的未知,同样的题对老师就是已知的。同样问题用非概率解你需要知道的更多。同样四道单选题三道不会,其他三道分别选a,b,c。第四道用概率方法根据一定先验会尽量选d。不用概率方法根本做不了这种问题。
同样如果知道了答案,肯定不会用概率方法,概率比通常非概率方法麻烦。
karnon(447457116) 7:33:16
这只是理想的情况,概率模型的缺点,在于它需要精确地刻划细节。

 

注:PRML读书会系列文章由 @Nietzsche_复杂网络机器学习 同学授权发布,转载请注明原作者和相关的主讲人,谢谢。

PRML读书会讲稿PDF版本以及更多资源下载地址:http://vdisk.weibo.com/u/1841149974

本文链接地址:http://www.52nlp.cn/prml读书会第十章-approximate-inference


Viewing all articles
Browse latest Browse all 205

Trending Articles