«上一篇
文章快速检索     高级检索
下一篇»
  应用科技  2021, Vol. 48 Issue (1): 25-30, 35  DOI: 10.11991/yykj.202007017
0

引用本文  

刘星宇, 宁慧, 张汝波. 基于CRF模型的英文词性标注研究[J]. 应用科技, 2021, 48(1): 25-30, 35. DOI: 10.11991/yykj.202007017.
LIU Xingyu, NING Hui, ZHANG Rubo. Research on English part of speech tagging based on CRF model[J]. Applied Science and Technology, 2021, 48(1): 25-30, 35. DOI: 10.11991/yykj.202007017.

基金项目

国家自然科学基金项目(61673084)

通信作者

宁慧,E-mail:ninghui@hrbeu.edu.cn

作者简介

刘星宇,男,硕士研究生;
宁慧,女,副教授

文章历史

收稿日期:2020-07-21
基于CRF模型的英文词性标注研究
刘星宇1, 宁慧1,2, 张汝波3    
1. 哈尔滨工程大学 软件学院,黑龙江 哈尔滨 150001;
2. 哈尔滨工程大学 计算机科学与技术学院,黑龙江 哈尔滨 150001;
3. 大连民族大学 机电工程学院,辽宁 大连 116600
摘要:针对如何使用适当的模型或结构使得词性标注结果准确率提升的问题,对隐马尔可夫模型和条件随机场模型进行了深入研究和实验,使用条件随机场的不同特征方程进行了多组实验,并对比了每组实验的准确率。实验结果表明,条件随机场对于解决英文词性标注问题有着更大的优势;将共性的特征与相对具体的后缀特征结合使用所达到的词性标注准确率最高。
关键词条件随机场    隐马尔可夫模型    词性特征    维特比算法    词性标注    自然语言处理    
Research on English part of speech tagging based on CRF model
LIU Xingyu1, NING Hui1,2, ZHANG Rubo3    
1. College of Software, Harbin Engineering University, Harbin 150001, China;
2. College of Computer Science and Technology, Harbin Engineering University, Harbin 150001, China;
3. College of Mechanical and Electronic Engineering, Dalian Minzu University, Dalian 116600, China
Abstract: In order to improve the accuracy rate of part of speech tagging results by using appropriate model or structure, the researches and experiments of hidden Markov model and conditional random field model are done in depth in this paper. Meanwhile, multigroup experiments are carried out, using different characteristic equations of conditional random field. The accuracy rates of these group experiments are compared. The results show that the conditional random field has a greater advantage in solving the problem of English part of speech tagging. The accuracy rate of part of speech tagging reaches the highest when the common features and specific suffix features are used in combination.
Keywords: conditional random field    hidden Markov model    part of speech feature    viterbi algorithm    part of speech tagging    natural language processing    

如今,人工智能已经逐步走进人们的生活中,并不断为人们提供高质量的服务,所以自然语言处理技术也变得尤为重要。作为人工智能技术的核心,自然语言处理的词性标注分析在多个领域中都有所应用,如机器翻译、文本分析、问题解答及机器人科学等领域都具有很高的应用价值,在未来还会有更高的发展空间。而条件随机场用于词性分析有着更加准确、灵活的特点,因此使用条件随机场进行词性分析的研究具有重大的意义。

针对使用适当的模型或结构来提升词性标注结果准确率的问题,本文使用实验对隐马尔可夫模型和条件随机场模型进行了模拟实现,同时使用条件随机场的不同特征方程进行了多组实验,并对比了每组实验的准确率,结合实验结果得到最终结论。

1 相关技术 1.1 条件随机场

条件随机场是指在给定一组输入随机变量条件下,输出另一组随机变量的条件概率分布模型,并假设输出的随机变量构成马尔可夫随机场。在条件随机场的定义中,若要求条件概率分布P(Y|X),要求条件随机场符合在给定随机变量X的情况下,随机变量Y需满足:

$P({Y_v}|X,{Y_w},w \ne v) = P({Y_v}|X,{Y_w},w\sim v)$ (1)

式中:w~v表示与v结点直接有边连接的所有结点w $ w\ne v $ 表示除了v结点本身以外的所有结点w[1]

若式(1)对任意结点v成立,则P(Y|X)被称作是一个条件随机场。

“条件”指它是个判别式模型P(Y|X),“随机场”指它是个无向图模型,无向图模型并不关注于每个事件是否有因果关系,并不涉及条件概率的分解。对于边没有方向的无向图模型,它只代表2个事件是有联系的[2]。条件随机场最大的优点是可以着眼于整个句子定义更灵活性的特征函数,并让所有特征可以进行全局归一化,能够求得全局的最优解,甚至可以在特征函数中判断句子是否以问号结尾成为一个问句,从而更加准确地判断每个位置的单词更加接近正确的词性。其中,利用了yt本身的特征称为状态特征,利用了yt-1yt之间关系的特征则称为转移特征[3]。由于词性标注是一种链型结构,所以可得条件随机场模型的链型表示为图1所示。

Download:
图 1 CRF链型模型
1.2 英文词性标注过程简介

对于词性标注问题,可以分解为以下3点:learning问题、marginal prob及MAP Inference。首先learning问题就是进行参数估计,也就是参数学习,即利用训练集来训练特征函数来生成并调整特征值,这里的训练集应该由一个个已经标注好的样本构成,并且数量必须尽可能多才能将参数调整到概率上最为准确[4]。marginal prob指的是边缘概率计算问题,即对于某一个单词个体,标注成某词性yt的概率值,即可以用P(yt|x)来表示。MAP Inference指的就是decoding问题,即用一定的算法,找到这样的一种标注序列,使得条件概率达到最大,最后选择这种标注作为结果标注进行预测[5]

2 英文词性标注过程的研究 2.1 边缘概率计算

对于边缘概率计算,当特征值通过一定算法学习好后,特征值就可以被使用进行词性的预测,而在对整个句子进行预测时,实际上是对每个单词相应的算法进行预测,这时就是要计算其边缘概率,这里使用处于中间推导过程的势函数乘积的公式[6]

$ P\left( {y|x} \right) = \dfrac{1}{Z}\prod\nolimits_{t = 1}^T{\psi _t}({y_{t - 1}},{y_t},x)$ (2)

需要注意的是,这里为了运算及表达方便,忽略考虑了边界结点,相当于在最初的y1结点前补充一个y0结点,方便运算处理。式中,P(y|x)中的y代表的是y1,y2,…,yT的所有y值,然而,当进行边缘概率计算时,即计算某一结点的标注P(yt=i|x)时,需要将yt以外的结点值都进行积分处理,又由于y的分布是离散分布,所以对于y的积分即为求和运算,所以可以推导出:

$ P({y}_{t}=i|x)=\displaystyle\sum\nolimits_{{y}_{1}{y}_{2}\cdots {y}_{t-1}{y}_{t}\cdots {y}_{T-1}{y}_{T}}P\left(y\right|x) $ (3)

对公式进行简单的分解来简化表达,可以得出:

$ P({y}_{t}=i|x)=\displaystyle\sum\nolimits_{{y}_{1}{y}_{2}\cdots {y}_{t-1}}\displaystyle\sum\nolimits_{{y}_{t+1}\cdots {y}_{T}}P\left(y\right|x) $ (4)

将原来的势函数乘积公式(2)代入式(4),可以得到:

$ P({y}_{t}=i|x)=\displaystyle\sum\nolimits_{{y}_{1}{y}_{2}\cdots {y}_{t-1}}\displaystyle\sum\nolimits_{{y}_{t+1}\cdots {y}_{T}}\dfrac{1}{Z}\prod\nolimits_{t{'}=1}^{T}{\psi }_{t{'}}({y}_{t{'}-1},{y}_{t{'}},x) $ (5)

对式(5)进行时间复杂度分析,可以看出,若一个词共有S种标注方式,总共有Tyt构成,也就是T个要标注的词,再计算最后T规模的连乘,总时间复杂度为 $ O\left(\right|S{|}^{T}\times T) $ ,是指数级的时间复杂度。对于指数级时间复杂度,计算量过大过于复杂,这种暴力求解的方法可以认为是不可解的,所以需要对其进行进一步的化简,化简思路就是将连加进行后移,移到连加运算的主体参数上,使连加提前进行,做到简化运算。可以将公式分为两部分,一部分是y1,y2,…,yt-1,一部分是yt+1,yt+2,…,yT,记为ΔΔ,所以公式可化为式(6)的形式[7]

$ P({y}_{t}=i|x)=\dfrac{1}{Z}{\varDelta }_{\text{左}}\times {\varDelta }_{\text{右}} $ (6)

下面分别来分析,首先对于Δ,可以将其展开以便观察和化简为

$ {\varDelta }_{\text{左}}=\displaystyle\sum\limits_{{y}_{1}{y}_{2}\cdots {y}_{t-1}}{\psi }_{1}({y}_{0},{y}_{1},x){\psi }_{2}({y}_{1},{y}_{2},x)\cdots {\psi }_{t}({y}_{t-1},{y}_{t}=i,x) $

其中,若一个词共有S种标注方式,yt是属于S集合内的。同理,相对于左侧公式,也可以写出右侧公式:

$ {\varDelta }_{\text{右}}=\displaystyle\sum\limits_{{y}_{t+1}{y}_{t+2}\cdots {y}_{T}}{\psi }_{t+1}({y}_{t}=i,{y}_{t+1},x){\psi }_{t+2}({y}_{t+1},{y}_{t+2},x)\cdots {\psi }_{T}({y}_{T-1},{y}_{T},x) $

此时,可以根据动态规划的思想对公式进行化简,就转变成了前向−后向算法的形式。在Δ中,对于一个线性链结构,积分(对于离散分布也就是连加)可以按照链型的次序进行,将每一步骤的积分结果作为下一步积分的公式参数,就形成了动态规划转移方程的形式,即前向算法的形式。例如,对于 ${\psi _{1}}({{{y}}_0},{{{y}}_1},{{x}})$ 这个式子,由于y0只存在于本式中,而y1除了本式中存在,还存在于 ${\psi _{2}}({{{y}}_1},{{{y}}_2},{{x}})$ 中,所以对于此式可以将y0进行积分,仅保留y1作为下一步积分的公式参数,此时式子就可以写成:

$ {\psi }_{2}({y}_{1},{y}_{2},x)\displaystyle\sum\limits_{{y}_{0}}{\psi }_{1}({y}_{0},{y}_{1},x) $

进一步思考后不难发现,y2既存在于此公式中,也存在于 ${\psi _{3}}({{{y}}_{2}},{{{y}}_{3}},{{x}})$ 中,依此类推,最后,Δ式可以化为

$ \begin{split} {\varDelta }_{\text{左}}=&\displaystyle\sum\limits_{{y}_{t-1}}\Bigg({\psi }_{t}({y}_{t-1},{y}_{t}=i,x)\displaystyle\sum\limits_{{y}_{t-2}}\Bigg({\psi }_{t-1}({y}_{t-2},{y}_{t-1},x) \cdots \\ &\displaystyle\sum\limits_{{y}_{1}}\Bigg({\psi }_{2}({y}_{1},{y}_{2},x)\displaystyle\sum\limits_{{y}_{0}}{\psi }_{1}({y}_{0},{y}_{1},x)\Bigg)\Bigg)\Bigg) \end{split} $

为化简可以将式(9)中多余的括号去掉进行合并,得到式(10):

$ \begin{split} {\varDelta }_{\text{左}}=&\displaystyle\sum\limits_{{y}_{t-1}}{\psi }_{t}({y}_{t-1},{y}_{t}=i,x)\displaystyle\sum\limits_{{y}_{t-2}}{\psi }_{t-1}({y}_{t-2},{y}_{t-1},x) \cdots\\ &\displaystyle\sum\limits_{{y}_{1}}{\psi }_{2}({y}_{1},{y}_{2},x)\displaystyle\sum\limits_{{y}_{0}}{\psi }_{1}({y}_{0},{y}_{1},x) \end{split} $

${\alpha _t}({{i}})$ 表示y0,y1,…,yt−1的所有势函数以及yt=i的左半部分势函数,根据前向算法以及概率图模型中精准推断的变量消除法的思想,原式可以进一步转化为

$ {\varDelta }_{\text{左}}={\alpha }_{t}\left(i\right)=\displaystyle\sum\limits_{{y}_{t-1}=j\in S}{\psi }_{t}({y}_{t-1}=j,{y}_{t}=i,x){\alpha }_{{t-1}}\left(j\right) $

所以同理,也可以写出yt右侧的后向算法表达式转化为

$ {\varDelta }_{\text{右}}={\beta }_{t}\left(i\right)=\displaystyle\sum\limits_{{y}_{t+1}=j\in S}{\psi }_{t}({y}_{t}=i,{y}_{t+1}=j,x){\beta }_{t+1}\left(j\right) $

因此综上所述可以得到边缘概率

$ P({y}_{t}=i|x)=\dfrac{1}{Z}{\varDelta }_{\text{左}}{\varDelta }_{\text{右}}=\dfrac{1}{Z}{\alpha }_{t}(i\left){\beta }_{t}\right(i) $
2.2 参数学习

在条件随机场中的参数学习问题就是求特征方程的特征值,这里可以使用梯度上升算法,即通过不断找出偏导数的绝对值最大的方向进行移动,找到最大值[8]。设特征值分别为 $\lambda $ $\eta $ ,则其表达式为

$ \begin{split} &\quad \widehat{\lambda },\widehat{\eta }=\underset{\lambda ,\eta }{{\rm{argmax}}}\prod\limits_{i=1}^{N}\dfrac{1}{Z({x}^{\left(i\right)},\lambda ,\eta )} \cdot\\ &{{\rm{exp}}}\displaystyle\sum\limits_{t=1}^{T}\left[{\lambda }^{T}f\right({y}_{t-1}^{\left(i\right)},{y}_{t}^{\left(i\right)},{x}^{\left(i\right)})+{\eta }^{T}g({y}_{t}^{\left(i\right)},{x}^{\left(i\right)}\left)\right] \end{split} $

为简化运算,又由于对数函数为单调函数,所以可以将公式对数化,将连乘转化成连加的形式:

$ \begin{split} &\hat \lambda ,\hat \eta = \mathop {\arg \max }\limits_{\lambda ,\eta } \displaystyle\sum\limits_{{{i}} = 1}^{{N}} \Bigg( - \log {{Z}}({{{x}}^{({{i}})}},\lambda ,\eta ) +\\ &\displaystyle\sum\limits_{{{t}} = 1}^{{T}} {[{\lambda ^{{T}}}{{f}}({{y}}_{{{t}} - 1}^{({{i}})},{{y}}_{{t}}^{({{i}})},{{{x}}^{({{i}})}}) + {\eta ^{{T}}}{{g}}({{y}}_{{t}}^{({{i}})},{{{x}}^{({{i}})}})]\Bigg)} \end{split} $

此时将argmax后的部分看成整体,作为一个函数,记为L,根据梯度上升算法原理,需求出 $\lambda $ $\eta $ 的偏导 $ {\nabla }_{\lambda }L $ $ {\nabla }_{\eta }L $ ,寻找梯度最大方向,一步步找到 $\lambda $ $\eta $ 的最大值[4]。下面进行求偏导,如式(7):

$ \begin{array}{l} {\nabla }_{\lambda }L=\displaystyle\sum\limits_{i=1}^{N}\Bigg(\displaystyle\sum\limits_{t=1}^{T}f({y}_{t-1}^{\left(i\right)},{y}_{t}^{\left(i\right)},{x}^{\left(i\right)})-{\nabla }_{\lambda }{{\rm{log}}}Z({x}^{\left(i\right)},\lambda ,\eta )\Bigg) \\ {\nabla }_{\eta }L=\displaystyle\sum\limits_{i=1}^{N}\Bigg(\displaystyle\sum\limits_{t=1}^{T}g({y}_{t}^{\left(i\right)},{x}^{\left(i\right)})-{\nabla }_{\eta }{{\rm{log}}}Z({x}^{\left(i\right)},\lambda ,\eta )\Bigg) \end{array} $ (7)

式中: ${{\rm{log}}}Z({x}^{\left(i\right)},\lambda ,\eta )$ 称作log-partition function,是一种配分函数,它在指数族分布中是一个非常重要的概念,对其求导所得到的是所对应的充分统计量的期望,其偏导数经过推理后可得

$ \begin{split} {\nabla }_{\lambda }{{\rm{log}}}Z({x}^{\left(i\right)},\lambda ,\eta )=& \displaystyle\sum\nolimits_{t=1}^{T}\displaystyle\sum\nolimits_{{y}_{t-1}}\displaystyle\sum\nolimits_{{y}_{t}}\left(P\left({y}_{t-1},{y}_{t},{x}^{\left(i\right)}\right)\cdot \right.\\ &\left. f\left({y}_{t-1},{y}_{t},{x}^{\left(i\right)}\right)\right) \end{split} $

对于边缘概率的计算,依然使用前向−后向算法来求解,即边缘概率计算的过程,唯一的不同点在于本公式为对2个y变量的求解:

$ P({y}_{t-1},{y}_{t},{x}^{\left(i\right)})=\dfrac{1}{Z}{\alpha }_{t-1}\left(i\right)\psi ({y}_{t-1},{y}_{t},{x}^{\left(i\right)}){\beta }_{t}\left(j\right) $

综上所述,对于 $ {\nabla }_{\lambda }L $ $ {\nabla }_{\eta }L $ ,整理可得:

$ \begin{split} {\nabla }_{\lambda }L=&\displaystyle\sum\limits_{i=1}^{N}\displaystyle\sum\limits_{t=1}^{T}\left(f\right({y}_{t-1}^{\left(i\right)},{y}_{t}^{\left(i\right)},{x}^{\left(i\right)})-\\ &\displaystyle\sum\limits_{{y}_{t-1}}\displaystyle\sum\limits_{{y}_{t}}\left(P\right({y}_{t-1},{y}_{t},{x}^{\left(i\right)}\left)f\right({y}_{t-1},{y}_{t},{x}^{\left(i\right)}\left)\right) \\ {\nabla }_{\eta }L=&\displaystyle\sum\nolimits_{i=1}^{N}\displaystyle\sum\nolimits_{t=1}^{T}\left(g\right({y}_{t}^{\left(i\right)},{x}^{\left(i\right)})-\\ &\displaystyle\sum\nolimits_{{y}_{t}}\left(P\right({y}_{t},{x}^{\left(i\right)}\left)g\right({y}_{t},{x}^{\left(i\right)}\left)\right) \end{split} $

根据梯度上升算法以及上述所求的结果,最后求得参数 $\lambda $ $\eta $ [9]

$ \begin{array}{l} {\lambda }^{(t+1)}={\lambda }^{\left(t\right)}+{\rm{step}}\times {\nabla }_{\lambda }L({\lambda }^{\left(t\right)},{\eta }^{\left(t\right)})\\ {\eta }^{(t+1)}={\eta }^{\left(t\right)}+{\rm{step}}\times {\nabla }_{\eta }L({\lambda }^{\left(t\right)},{\eta }^{\left(t\right)}) \end{array} $
2.3 词性预测

条件随机场的词性预测所用核心算法为维特比算法,在机器学习中,维特比算法是一种应用非常广泛的算法,它基于动态规划思想,在求解隐马尔可夫模型、条件随机场的预测等问题中均用到了该算法。实际上,维特比算法不仅是很多自然语言处理的解码算法,也是现代数字通信中使用最频繁的算法[10]

维特比算法的目的是要求出图2中的一条路径,使得该路径对应的概率值最大。对应图2来讲,假设每个时刻x可能取的值为3种,如果直接求解结果的话,会有3N的排列组合数,其中底数3为篱笆网络宽度,指数N为篱笆网络的长度,因此时间复杂度达到无法运算的指数级,计算量非常大,若设每个时刻x可能取的值为D种,则时间复杂度为 $ O\left({D}^{N}\right) $ 。维特比利用动态规划的思想来求解概率最大路径,使得时间复杂度正比于序列长度,复杂度为 $ O\left(N{D}^{2}\right) $ ,从而很好地解决了问题[11]

Download:
图 2 维特比算法示意
3 实验过程与结果分析 3.1 隐马尔可夫模型实验

在使用隐马尔可夫模型来实现词性标注时,核心是隐马尔可夫模型的三大矩阵[4],分别是初始状态概率分布矩阵( ${{\mathit{\boldsymbol{\pi}}}}$ 矩阵)、输出观测矩阵(A矩阵)和状态转移矩阵(B矩阵)[12]

其中,初始状态概率分布矩阵指的是第一个单词被标注成各个词性的概率矩阵,若设第一个结点前有一个虚拟的start结点,可以看成在start虚拟结点到第一个结点的概率。输出观测矩阵指的是在当前位置为词性n的情况下,出现单词m的概率。状态转移矩阵指的是在前一个位置为词性n’的情况下,当前位置的词性为n的概率[13]

1)先将训练集读入。在读入的过程中将单词和词性转化为编号数字存储在数组中以便于进行操作,同时记录不同单词总数M以及词性种类总数N

2)根据MN构造相应大小的初始状态概率分布矩阵、输出观测矩阵和状态转移矩阵。

3)再次读入训练集,对三大矩阵进行填充。根据各个单词是否是在首位置出现、出现当前词性时出现了当前单词的次数、上一个词性到当前词性的组合出现的次数,对三大矩阵进行不断累加,训练完毕后将其概率化,即除以矩阵当前行数组总长,将当前数字转化为0−1之间的概率数字。

4)实现维特比算法的函数。输入参数为所要预测的句子x、三大矩阵、最终预测总数组arr。将预测好的词性标注情况逐一增加到最终预测总数组中,以便于最后求解准确度。并且在其中将矩阵间的乘积提前进行对数化,将乘积化为加和,简化运算,以加快运算速度[14]。实现细节如下所示:

for j in range(N):

 dp[0][j] = log(pi[j]) + log(A[j][x[0]])

for i in range(1, T): # 每个单词

 for j in range(N): # 每个词性

  dp[i][j] = −9999999

  for k in range(N): # 从每一个k可以到达j

   score = dp[i − 1][k] + log(B[k][j]) + log(A[j][x[i]])

   if score > dp[ i][j]:

    dp[i][j] = score

    ptr[i][j] = k

5)使用校验集来对所训练好的三大矩阵进行运算,将校验集切分为一个个的句子,不断地使用维特比算法进行计算,每次计算完都会将预测出的词性标注情况加入到最终预测总数组中,最后与校验集原有的正确标注进行对比,得出准确率。实现细节如下:

prearr = []

testarr = []

for sent in test_sents:

 for tag in get_tags(sent):

  testarr.append(tag)

 viterbi(get_tokens(sent), pi, A, B, prearr)

same = 0

sum = 0

for pre, test in zip(prearr, testarr):

 if pre == test:

  same += 1

 sum += 1

print("准确率为: ", same / sum)

3.2 条件随机场模型实验

对于使用条件随机场进行词性标注模拟实现,这里使用的是Sklearn_crfsuite库来对参数进行学习和训练,同时为确保结果对比的有效性,训练集和校验集选用的仍然是和HMM相同的数据库。

1)进行数据集读取。将训练集和校验集分割成一个个句子,由于句子之间是没有联系的,所以可以以每个句子为单独样本来进行实验。将各个句子的单词、词性信息加入到train_sents和test_sents数组中。

2)进行特征方程的构造。这里用6组实验,利用不同的思想构造了特征方程,下面分别介绍这6组特征方程组。

①对word2features0特征方程组,使用的是较为共有的特性,例如是否为数字、末尾几个字母是否相同、首字母是否为大写等特性,来进行参数训练。如下:

'number': is_number(word),

'word[-4:]': word.lower()[-4:],

'word[-3:]': word.lower()[-3:],

'word[-2:]': word.lower()[-2:],

'word[-1:]': word.lower()[-1:],

'word.lower()': word.lower(),

'word.isupper()': word.isupper(),

'word.istitle()': word.istitle()

②对word2features1特征方程组进一步思考是否可以将较为普遍的共性进行具体化。根据这个思想,通过广泛搜集信息,找到并整理出了较为完整的词性后缀集合,通过对后缀的具体要求来构造特征方程,将共性进行具体化[15],部分构造代码如下:

#名词后缀

'-or': word.lower()[-2:] == "or",

'-er': word.lower()[-2:] == "er",

'-ess': word.lower()[-3:] == "ess",

'-crat': word.lower()[-4:] == "crat",

'-cis': word.lower()[-3:] == "cis",

'-acy': word.lower()[-3:] == "acy",

'-ance': word.lower()[-4:] == "ance",

③对于word2features2特征方程组,在word2features1的基础上,将后n个字母相同的偏向共性的条件注释掉,只保留后缀对词性的要求,来分辨后n个字母相同的条件和具体后缀的条件是否会因为有重叠而影响词性预测准确率。

④对于word2features3特征方程组,保留后n个字母相同的条件和相对其他后缀来说较为共性的特殊后缀,观察更加共性是否是影响词性预测准确率的关键条件,特殊后缀构造代码如下:

# 特殊后缀

'-ed': word.lower()[-2:] == "ed",

'-s': word.lower()[-1:] == "s",

'-es': word.lower()[-2:] == "es",

'-ing': word.lower()[-3:] == "ing",

⑤对于word2features4特征方程组,保留后1、2、3、4个字母相同的条件,以及后缀为5个字母及以上的具体后缀条件,观察词性预测准确率,构造代码如下:

'number': is_number(word),

'word[-4:]': word.lower()[-4:],

'word[-3:]': word.lower()[-3:],

'word[-2:]': word.lower()[-2:],

'word[-1:]': word.lower()[-1:],

'word.lower()': word.lower(),

'word.isupper()': word.isupper(),

'word.istitle()': word.istitle(),

'-bility': word.lower()[-6:] == "bility",

'-grapy': word.lower()[-5:] == "grapy",

'-ology': word.lower()[-5:] == "ology",

'-wards': word.lower()[-5:] == "wards",

⑥对于word2features5特征方程组,根据word2features4的构造情况进行对比,保留后1、2、3个字母相同的条件,以及后缀为4个字母及以上的具体后缀条件,观察词性预测准确率。

3)根据Sklearn_crfsuite库的要求,构造三维数组参数。其中,对于训练集,第一维为每个句子,第二维为每个句子中的每个单词,第三维为每个单词所拥有的特性。这里的特性就是用第二步的特征方程来判断出来的是否符合各个特征方程的布尔值。对于校验集,第三维为每个单词所拥有的正确词性标注,用于最后判断预测词性标注的准确性。

4)使用Sklearn_crfsuite库中的API并传入相应的参数,使用拟牛顿法进行参数学习,使用维特比算法进行词性预测,并将结果与校验集进行比对,若标注的词性相同,则same+=1,最后将same除以标注总数sum,求出最终准确率,代码实现如下:

same = 0

sum = 0

for st, sp in zip(y_test, y_pred):

 for tt, tp in zip(st, sp):

  if tt == tp:

   same += 1

  sum += 1

print("准确率为: ", same / sum)

3.3 实验结果分析

经过隐马尔可夫模型以及条件随机场的各个不同的特征方程对相同训练集进行训练以及相同校验集进行校验,得出准确率的结果如表1表2所示。

表 1 数据库1词性预测准确率结果
表 2 数据库2词性预测准确率结果

可以看出,2个数据库中隐马尔可夫模型的准确率都是完全低于条件随机场的,证明了条件随机场模型更适用于词性标注问题,也证明了条件随机场对于解决词性标注问题的全面性和灵活性。

对于条件随机场模型不同特征方程之间的比较,可以看出2个数据库中word2features4所达到的准确率最高,也就是说,使用相对共性笼统的后n个字母相同加上相对具体的n+1及n+1以上个字母的后缀结合使用所达到的准确率最高。同时,2个数据库中word2features2所达到的准确率在条件随机场模型中都是最小的,也就表明若不用相对共性的后n个字母相同的方法构造特征函数,而只用后缀法来构造特征函数时,准确率会降低,也就是说,共性构造是不可少的一部分,可以大大提高预测准确率。

综上所述,在进行英文词性标记时,条件随机场模型表现出更好的效果,相对其他模型有着更准确的预测。同时,选择使用相对共性的后n个字母相同加上相对具体的n+1及n+1以上个字母的后缀结合使用所达到的准确率最高。

4 结论

本文对隐马尔可夫模型和条件随机场模型进行了模拟实验,同时使用条件随机场的不同特征方程进行了多组实验,并对比了每组实验的准确率。结果表明,条件随机场对于解决英文词性标注问题有着更大的优势,并且将共性的特征与相对具体的后缀特征结合使用所达到的词性标注准确率最高。

参考文献
[1] 李航. 统计学习方法[M]. 2版. 北京: 清华大学出版社, 2019: 193-236. (0)
[2] 何炎祥, 罗楚威, 胡彬尧. 基于CRF和规则相结合的地理命名实体识别方法[J]. 计算机应用与软件, 2015, 32(1): 179-185, 202. DOI:10.3969/j.issn.1000-386x.2015.01.046 (0)
[3] 王志强. 基于条件随机域的中文命名实体识别研究[D]. 南京: 南京理工大学, 2006. (0)
[4] 姜锋. 基于条件随机场的中文分词研究[D]. 大连理工大学, 2006. (0)
[5] 程志刚. 基于规则和条件随机场的中文命名实体识别方法研究[D]. 武汉: 华中师范大学, 2015. (0)
[6] 燕杨. 基于条件随机场的医学文本与图像标注模型构建及应用研究[D]. 吉林: 吉林大学, 2015. (0)
[7] 周俊生, 戴新宇, 尹存燕, 陈家骏. 基于层叠条件随机场模型的中文机构名自动识别[J]. 电子学报, 2006(5): 804-809. DOI:10.3321/j.issn:0372-2112.2006.05.008 (0)
[8] MOHRI M, ROSTAMIZADEH A, TALWALKAR A. 机器学习基础[M]. 张文生, 译. 北京: 机械工业出版社, 2019. (0)
[9] 张亚中, 李玉箫, 刘雨享, 等. 基于机器学习梯度下降法的OAM对准算法[J]. 通信技术, 2019, 52(6): 1316-1319. DOI:10.3969/j.issn.1002-0802.2019.06.005 (0)
[10] 计峰. 自然语言处理中序列标注模型的研究[D]. 上海: 复旦大学, 2012. (0)
[11] 蒋艳荣, 刘习文, 陈耿涛. 基于Viterbi改进算法的高棉语分词研究[J]. 计算机工程, 2011, 37(15): 174-176. DOI:10.3969/j.issn.1000-3428.2011.15.055 (0)
[12] 胡春静, 韩兆强. 基于隐马尔可夫模型(HMM)的词性标注的应用研究[J]. 计算机工程与应用, 2002(6): 62-64. DOI:10.3321/j.issn:1002-8331.2002.06.023 (0)
[13] 牛秀萍. 基于隐马尔科夫模型词性标注的研究[D]. 太原理工大学, 2013. (0)
[14] 袁里驰. 基于改进的隐马尔科夫模型的语音识别方法[J]. 中南大学学报(自然科学版), 2008, 39(6): 1303-1308. (0)
[15] 锡南·厄兹代米尔, 迪夫娅·苏萨拉. 特征工程入门与实践[M]. 庄嘉盛, 译. 北京: 人民邮电出版社, 2019: 117–126. (0)