EM 算法
EM 算法也是很经典的算法了,记录一下
假设一个统计模型的可观测数据为 \(X\),不可观测数据为 \(Z\),同时有一个未知参数 \(\theta\)。我们有似然函数 \(L(\theta;X,Z)=p(X,Z|\theta)\)
那么对于未知参数的极大似然估计就是最大化其边缘似然函数如下
\[L(\theta;X)=p(X|\theta)=\int p(X,Z|\theta) dZ\]
然而,这个是很难进行直接计算的。因为 \(Z\) 的维度可能很大,那么对它进行积分会是十分困难的。因此就可以引入 EM 算法
E 步骤
根据参数的假设值,给出未知变量 \(Z\) 的期望估计,应用于缺失值。这个解释起来有点拗口,似然函数的期望
\[Q(\theta|\theta^t)=E_{Z|X,\theta^t}[\log L(\theta;X,Z)]\]
M 步骤
根据未知变量的估计值,给出当前的参数 \(\theta\) 的极大似然估计。
\[\theta^{t+1}=\arg\max_{\theta} Q(\theta|\theta^t)\]