目录
《统计自然语言处理(第2版)》p104-128,《机器学习》p319-340
概率图模型(probalistic graphical models)在概率模型的基础上,使用了基于图的方法来表示概率分布(或者概率密度、密度函数),是一种通用化的不确定性知识表示和处理方法。概率图模型的表达中,结点表示变量,结点之间的边表示相应变量之间的对应关系。
例如,假设S为一个汉语句子,X是句子S切分出来的词序列,那么,分词的过程可以看作是推断使P(X|S)
最大的词序列X的分布。而词性标注中,可以看作在给定序列X的情况下,寻找一组最可能的词性标签分布T,使得P(T|X)
最大。
根据图模型的边是否有向,可以分为有向概率图模型和无向概率图模型:
而概率图模型在nlp中的演变过程如下所示:
贝叶斯网络又称信度网络或信念网络(belief networks),基础理论是贝叶斯公式,目的是通过概率推理 处理不确定性和不完整性问题。
一个贝叶斯网络就是一个有向无环图(directed acyclic graph, DAG),结点表示随机变量 (可观测量/隐含变量/未知参量或假设等),有向边表示条件依存关系(箭头指向的结点依存于发出箭头的结点【父节点】)。两个结点没有连线表示两个随机变量在某些特定情况下条件独立,如果有连线,则任何条件下都不可能条件独立。
每一个结点都和一个概率函数相关,概率函数的输入是该结点的父结点所表示的随机变量的一组特定值,输出为当前结点表示的随机变量的概率值。概率值的大小表示结点之间已存关系的强度。
对于一篇写了某个岛屿的文章而言,是否是一篇新闻记为事件N,是否记录了历史记为事件H,是否记录了旅游风光记为事件S。
则三个事件的联合概率函数为:
P(H,S,N)=P(H|S,N)P(S|N)P(N)
下面我们来算一个概率:一篇关于某岛屿的文章是记录了历史,那么,它是一篇新闻的概率有多大?
P(N=T|H=T)=P(H=T,N=T))P(H=T))=∑S∈{T,F}P(H=T,S,N=T)∑N,S∈{T,F}P(H=T,S,N)=(0.4×0.1×0.2=0.008)TTT+(0.3×0.9×0.2=0.054)TFT0.008TTT+0.054TFT+0.256TTF+0.24TFF=11.11%
构造贝叶斯网络主要有表示、推断和学习三大问题:
x={X1,L,Xn}
上给出其联合概率分布P
。贝叶斯网络表示中的主要问题是:即使在随机变量仅有2种取值的简单情况下,一个联合概率分布也需要对x1,L,xn
的所有2n
种不同取值下的概率进行说明,计算代价、需要学习的参数数量都非常大,几步不可完成。p(XQ|XE=x)
,其中,XQ
是询问变量的集合,XE
是已知证据的变量集合。基本思想是通过分步计算不同变量的边缘分布,按顺序逐个消除未观察到的非询问变量。团树法使用更全局化的数据结构调度各种操作,以获得更加有益的计算代价。常用的近似推理算法有重要性抽样法(importance sampling)、随机马尔可夫链蒙特卡罗模拟法(Markov chain Monte Carlo,MCMC)、循环信念传播法(loopy belief propagation)和泛化信念传播法(generalized belief propagation)等。类似贝叶斯网络,但主要有以下两个区别:一是可以表示贝叶斯网络无法表示的一些依赖关系(如循环依赖);另一方面,不能表示贝叶斯网络能表达的某些关系(如推导关系)。
马尔可夫网络:一组有马尔可夫性质的随机变量的联合概率分布模型,由无向图G
和定义在G
上的势函数组成。一个无向图G=(V,E)
,每个顶点xi∈V
表示在集合X
上的一个随机变量,每条边{xi,xj}∈E(i≠j)
表示直接相连的两个随机变量xi
和xj
之间的一种依赖关系。
如果图的一个子图(点和边都是原图的子集)的任意两个结点之间都有边相连,那么这个子图就是一个完全子图(complete subgraph),又称团(clique)。一个团的完全子团称为子团。如果C
是无向图G
的一个子团,且不能再加进任何一个G
的结点使其成为一个更大的团,则称C
为最大团。无向图中,不使用条件概率密度进行参数化,而使用称为团势能(clique potential)作为参数化因子。每个团都对应着一个势函数(非负实函数),表示团的一个状态。一般,用xC
表示团C
中的所有结点,用ϕ(xC)
表示团势能。由于要求势能函数ϕ(xC)
非负,所以,一般将ϕ(xC)
定义为:ϕ(xC)=exp{−E(xC)}
,其中E(xC)
称为xC
的能量函数。
如果分布pϕ(x1,x2,...,xn)
的图模型可以表示为一个马尔可夫网络H
,当C
是H
上完全子图的集合【《统计学习方法》p193以及《机器学习》p323说,C
应该是最大团】时,我们说H
上的分布pϕ(x1,x2,...,xn)
可以用C
的团势能函数ϕ(xC)
进行因子化:ϕ={ϕ1(xC1),...,ϕK(xCK)}
。pϕ(x1,x2,...,xn)
可以看作H
上的一个吉布斯分布(Gibbs distribution),其概率分布密度为:
p(x1,x2,...,xn)=1ZK∏i=1ϕi(xCi)
其中,Z
是一个归一化常量,称为划分函数(partition function)。
Z=∑x1,...,xnK∏i=1ϕi(xCi)
其中,xCi⊆{x1,x2,...,xn}(1⩽
,并且满足\bigcup_{i=1}^{K}\textbf{x}_{C_i}=\{x_1,x_2,...,x_n\}
(意思是,不需要所有的团,只需要能覆盖所有结点的子团就行了,所以呢,也经常直接用最大团来代替C_i
)。【另外,个人对Z
的理解,可以理解为遍历每个结点,把包含他的子团乘起来,最后累加,不知对不对……】显然,在无向图模型中每个C_i
对应于一个团,而相应的吉布斯分布就是整个图模型的概率分布。因子化的乘积运算可以变成加法运算:
p(x_1,x_2,...,x_n)=\frac{1}{Z}exp\{-\sum _{i=1}^KE_{C_i}(x_{C_i})\}=\frac{1}{Z}exp\{-E(\textbf{x})\}
其中,E(\textbf{x})=\sum_{i=1}^{K}E_{C_i}(x_{C_i})
。
最大熵模型的基本原理是:在只掌握关于未知分布的部分信息的情况下,符合已知知识的概率分布可能有多个,但使熵值最大的概率分布最真实地反映了事件的分布情况,因为熵定义了随机变量的不确定性,当熵最大时,随机变量最不确定,最难准确地预测其行为,也就是说,在已知部分信息的前提下,关于未知分布最合理的推断应该是符合已知信息的最不确定或最大随机的推断。
对于自然语言处理中某个歧义消解问题,用A
表示待消歧问题所有可能候选结果的集合,B
表示当前歧义点所在上下文信息构成的集合,则称(a,b)
为模型的一个特征。一般定义\{0,1\}
域上的一个二值函数来表示特征:
f(a,b) =
\begin{cases}
1, 如果(a,b)\in(A,B),且满足某种条件 \\
0, else \\
\end{cases}
在不引起混淆的情况下,有时也直接把特征函数f(a,b)
称作特征。将“判定歧义问题为某种可能的结果a\in A
”看作一个事件,该歧义点所在的上下文出现的某些信息看作这个事件发生的条件b\in B
,那么,建立最大熵模型的目的就是计算判定结果a
的条件概率p(a|b)
,即利用条件最大熵模型选择条件概率p(a|b)
最大的候选结果作为最终的判定结果:
\hat{p}(a|b)=\underset{p\in P}{argmax}H(p)
其中,P
是指所建模型中所有与已知样本的概率分布相吻合的概率分布的集合。
CRF(Conditional Random Field)条件随机场是用于标注和划分序列结构数据的概率化结构模型。
对于给定的输出标识序列Y和观测序列X,CRF通过定义条件概率P(Y|X)
而非联合概率P(X,Y)
来描述模型。也可以将CRF看作一个无向图模型或者,马尔可夫随机场(Markov Random Field)。
定义:设G=(V,E)
为一个无向图,V
为结点集合,E
为无向边的集合。Y=\{Y_v|v\in V\}
,即V
中的 每一个结点对应于一个随机变量Y_v
,其取值范围为可能的标记集合\{y\}
。如果以观察序列X
为条件,每一个随机变量Y_v
都满足以下马尔可夫特性 \eqref{eq:9.1}:
p(Y_v|X,Y_w,w\neq v)=P(Y_v|X,Y_w,w\sim v)
\tag{Eq-9.1}
\label{eq:9.1}
其中,w\sim v
表示两个结点在图G
中是邻近结点。那么(X,Y)
为一个随机场。
理论上,只要在标记序列中描述了一定的条件独立性,G
的图结构可以是任意的。对序列进行建模可以形成最简单、最普通的链式结构(chain-structured)图,结点对应标记序列Y
中的元素:
显然,观察序列X
的元素之间并不存在图结构,因为这里只是将观察序列X
作为条件,并不对其做任何独立性假设。
在给定观察序列X
时,某个特定标记序列Y
的概率可以定义为 \eqref{eq:9.2}:
exp(\sum _j \lambda _jt_j(y_{i-1},y_i,X,i)+\sum _k \mu _ks_k(y_i,X,i))
\tag{Eq-9.2}
\label{eq:9.2}
其中,t_j(y_{i-1},y_i,X,i)
是转移函数,表示对于观察序列X
及其标注序列i
及i-1
位置上标记的转移概率。
s_k(y_i,X,i)
是状态函数,表示对于观察序列X
其i
位置的标记概率。
\lambda _j
和\mu _k
分别是t_j
和s_k
的权重,需要从训练样本中预估出来(模型参数)。
参照最大熵模型的做法,在定义特征函数时可以定义一组关于观察序列的\{0,1\}
二值特征b(X,i)
来标识训练样本中某些分布特性,例如
b(X,i) =
\begin{cases}
1, X的i位置为某个特定的词 \\
0, else \\
\end{cases}
转移函数可以定义为如下形式:
t_j(y_{i-1},y_i,X,i) =
\begin{cases}
b(X,i), y_{i-1}和y_i满足某种搭配条件 \\
0, else \\
\end{cases}
为了便于描述,可以将状态函数写成如下形式:
s(y_i,X,i)=s(y_{i-1},y_i,X,i)
这样,特征函数可以统一表示为 \eqref{eq:9.3}:
F_j(Y,X)=\sum _{i=1}^{n}f_j(y_{i-1},y_i,X,i)
\tag{Eq-9.3}
\label{eq:9.3}
其中,每个局部特征函数f_j(y_{i-1},y_i,X,i)
表示状态特征s(y_{i-1},y_i,X,i)
或转移函数t_j(y_{i-1},y_i,X,i)
。
由此,条件随机场定义的条件概率如下\eqref{eq:9.4}:
p(Y|X,\lambda )=\frac{1}{Z(X)}exp(\lambda _j\cdot F_j(Y,X))
\tag{Eq-9.4}
\label{eq:9.4}
其中,分母Z(X)
为归一化因子\eqref{eq:9.5}:
Z(X)=\sum _Yexp(\lambda _j \cdot F_j(Y,X))
\tag{Eq-9.5}
\label{eq:9.5}
条件随机场模型也需要解决3个问题:特征的选取、参数训练和解码。训练过程可以在训练数据集上基于对数似然函数的最大化进行。
相对于HMM,CRF的主要优点在于他的条件随机性,只需要考虑当前已经出现的观测状态,没有独立性的严格要求 ,对于整个序列内部的信息和外部观测信息均可有效利用,避免了MEMM(最大熵隐马尔可夫模型)和其他针对线性序列模型的条件马尔可夫模型会出现的标识偏置问题。(the transitions leaving a given state compete only against each other, rather than against all other transitions in the model.In the extreme case, a state with a single outgoing transition effectively ignores the observation. In those cases, unlike in HMMs, Viterbi decoding cannot downgrade a branch based on observations after the branch point, and models with statetransition structures that have sparsely connected chains of states are not properly handled.)
CRF具有MEMM的一切优点,亮着的关键区别在于,MEMM使用每一个状态的指数模型来计算给定前一个状态下当前状态的条件概率,而CRF用单个指数模型来计算给定观察序列和整个标记序列的联合概率。因此,不同状态的不同特征权重可以相互交换代替。(The critical difference between CRFs and MEMMs is that a MEMM uses per-state exponential models for the conditional probabilities of next states given the current state, while a CRF has a single exponential model for the joint probability of the entire sequence of labels given the observation sequence.)
(We can also think of a CRF as a finite state model with unnormalized transition probabilities. However, unlike some other weighted finite-state approaches (LeCun et al., 1998), CRFs assign a well-defined probability distribution over possible labelings, trained by maximum likelihood or MAP estimation. Furthermore, the loss function is convex,2 guaranteeing convergence to the global optimum.)
算法 | 优缺点 |
---|---|
隐马尔可夫模型(HMM) | 最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的特征,限制了特征的选择 |
最大熵隐马尔可夫模型(MEMM) | 解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉 |
条件随机场(CRF) | 很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。 |
crf经典资料:
工具:CRF++(c++)/CRFSuite(c)/MALLET(java)/nltk(python)