2. 哈尔滨理工大学 计算机科学与技术学院, 黑龙江 哈尔滨 150080
2. School of Computer Science and Technology, Harbin University of Science and Technology, Harbin 150080, China
词义消歧的目的是确定歧义词汇在特定上下文环境中的具体含义。词义消歧对机器翻译、话题关联检测、语音识别、文本分类、信息检索和主题挖掘等应用有很大的影响[1-2]。钱涛等[3]、SONAKSHI等[4]和EDILSON等[5]使用图来描述词义消歧问题。ROCCO等[6]根据分布信息来计算语义的相似性,提出了一种新的基于进化博弈理论的词义消歧模型。SALLAM等[7]将蜂群优化元启发式算法应用于词义消歧过程,利用多个人工蜂代理来协同处理该问题。SULEMA等[8]利用Alpha-Beta联想记忆对歧义词及其上下文之间的关联性进行计算,提出了一种基于简化LESK算法的词义消歧方法。与其他基于LESK的方法相比,该方法具有一定的优越性。MYUNG等[9]提出了一种基于词嵌入的消歧方法,使消歧特征向量具有可加性和组合性,消歧特征向量更加紧凑和高效。OSMAN等[10]和CLAUDIO等[11]以少量带有语义注释的语料为基础,挖掘大量无标注语料中的语言学知识来进行半监督词义消歧。杨陟卓[12]和孟禹光等[13]分别利用上下文的译文和词性来确定歧义词汇的含义。WANG等[14]以共现知识和训练文档的类知识为基础,利用语义扩散核来解决词汇的歧义问题。郭瑛媚等[15]以话题信息、位置关系和互信息为消歧特征,提出了一种无监督的跨语言词义消歧算法。利用在线词典和Web搜索引擎,使用上下文信息来确定评论句中多义评论词的具体含义。杨安等[16]和鹿文鹏等[17]利用领域知识来进行词义消歧。HUNG等[18]和唐共波等[19]分别利用情感词汇网络词典与知网中的义原来进行词义消歧。许坤利等[20]用启发式信息从语料中挖掘实体和关系,对谓词进行消歧。WANG等[21]和ANTONIO等[22]以生物医学中的专业知识为基础来建立词义消歧模型,解决了文本中词语的歧义问题。
本文以歧义词汇为中心,从其左右4个邻接词汇单元中抽取词形、词性和语义类作为消歧特征,统计其出现的频率。以逻辑回归模型、梯度提升决策树和支持向量机为基础,采用软投票策略来构造集成词义消歧模型。同时,使用半监督学习方法来优化集成词义消歧模型。
1 词义消歧特征的选择本文利用词法知识和语义知识来确定歧义词的含义。以歧义词为中心,选择左右4个邻接词汇单元。从每个词汇单元中,抽取词形、词性和语义类作为消歧特征。
对于包含歧义词“中医”的汉语句子,其消歧特征的提取过程如下所示:
汉语句子:一位当中医的亲戚。
分词结果:一位当中医的亲戚。
词性标注:一/m位/q当/v中医/n的/u亲戚/n。/w
语义标注:一/m/Eb02位/q/Di15当/v/Hj24中医/n/Dk03的/u/Ed01亲戚/n/Ah01。/w/-1
消歧特征的提取过程如图 1所示。
Download:
|
|
从汉语句子中,提取歧义词“中医”左右4个邻接词汇单元,分别为:“位/q/Di15”、“当/v/Hj24”、“的/u/Ed01”和“亲戚/n/Ah01”。词形用W来表示;词性用P来表示;语义类用S来表示。歧义词左侧的2个邻接词汇单元的词形分别用WL1、WL2来表示;右侧的2个邻接词汇单元的词形分别用WR1、WR2来表示。左侧2个邻接词汇单元的词性分别用PL1、PL2来表示;右侧2个邻接词汇单元的词性分别用PR1、PR2来表示。左侧2个邻接词汇单元的语义类分别用SL1、SL2来表示;右侧2个邻接词汇单元的语义类分别用SR1、SR2来表示。从4个邻接词汇单元中,共抽取了12种消歧特征。
在哈尔滨工业大学人工语义标注语料中,每个汉语句子都进行了词汇切分。每个单词都标注了词性。以《同义词词林》为基础,按照上下文信息标注了每个词汇的语义类别。以该人工语义标注语料为基础,统计消歧特征的频率F,如表 1所示。
本文利用词义消歧特征的频率来判别歧义词的真实含义。统计12个消歧特征的频率,F(WL2)、F(PL2)、F(SL2)、F(WL1)、F(PL1)、F(SL1)、F(WR1)、F(PR1)、F(SR1)、F(WR2)、F(PR2)、F(SR2),得到词义消歧特征向量Efeature=(F(WL2), F(PL2), F(SL2), F(WL1), F(PL1), F(SL1), F(WR1), F(PR1), F(SR1), F(WR2), F(PR2), F(SR2))。
2 基本词义消歧模型歧义词w具有m个语义类sk=k (k=1, 2, …, m)。其消歧特征向量为Efeature。本文使用逻辑回归(logistic regression,LR)模型、梯度提升决策树(gradient boosting decision tree,GBDT)和支持向量机(support vector machine,SVM)来确定歧义词w的语义类别。
2.1 基于逻辑回归模型的词义消歧对于歧义词w而言,设计m个二类逻辑回归模型FLRk(Efeature)来进行消歧(k=1, 2, …, m)。其中,FLRk(Efeature)用于判别歧义词w的语义类是否为sk:
$ F_{{\rm{LR}}}^k({\mathit{\boldsymbol{E}}_{{\rm{feature}}}}) = \frac{1}{{1 + {{\rm{e}}^{ - {\mathit{\boldsymbol{E}}_{{\rm{feature}}}} \cdot {\theta _k}}}}} $ | (1) |
式中θk为FLRk(Efeature)的逻辑回归参数。
从语义标注语料中,抽取包含歧义词w的汉语句子。从每一个汉语句子中,抽取歧义词w的特征向量。歧义词w的特征向量和标注的语义类别构成二元组。将歧义词w的所有二元组搜集起来形成集合L。利用L来计算交叉熵代价函数J(θk):
$ \begin{array}{l} J({\theta _k}) = - \frac{1}{{|{L_k}|}}\sum\limits_{\left( {feature,u} \right) \in {L_k}} {[u {\rm{lb}} {F_{{\rm{LR}}}}({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) + } \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} (1 - u) {\rm{lb}} (1 - {F_{{\rm{LR}}}}({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}))] \end{array} $ | (2) |
式中:Lk=L,(Efeature, u)∈Lk,u∈{0, 1}。当歧义词w的语义类为sk时,u的值为1;w的语义类不为sk时,u的值为0。
使代价函数J(θk)取最小值的θk*为优化参数。歧义词w属于语义类sk的概率:
$ P(S = {s_k}|{\mathit{\boldsymbol{E}}_{{\rm{ feature }}}};{\theta _k}) = F_{LR}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) $ | (3) |
歧义词w不属于语义类sk的概率:
$ P(S \ne {s_k}|{\mathit{\boldsymbol{E}}_{{\rm{ feature }}}};{\theta _k}) = 1 - F_{{\rm{LR}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) $ | (4) |
逻辑回归词义消歧模型为FLR(Efeature),选择具有最大概率的语义类作为歧义词w的预测语义类别:
$ {F_{{\rm{LR}}}}({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) = \mathop {{\rm{ argmax }}}\limits_{k = 1,2, \cdots ,m} F_{{\rm{LR}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) $ | (5) |
梯度提升决策树利用线性组合和向前分步算法来实现学习过程。对于歧义词w而言,设计m个梯度提升决策树模型FGD1(Efeature)、FGD2(Efeature)、…、Fm(Efeature)来确定它的具体含义。其中,FGDk(Efeature)用于判别歧义词w的语义类是否为sk:
$ F_{{\rm{GD}}}^k({\mathit{\boldsymbol{E}}_{{\rm{feature}}}}) = \sum\limits_{n = 1}^N T ({\mathit{\boldsymbol{E}}_{{\rm{feature}}}};\theta _n^k) $ | (6) |
式中:N为决策树的个数;T(Efeature; θnk)表示第m个梯度提升决策树模型中的第n棵决策树;θnk为其中的参数。
给定训练样本集Lk,训练FGDk(Efeature)获得优化参数θnk*。FGDk(Efeature)的训练过程为:
1) 初始化梯度提升决策树。
$ F_{{\rm{G}}{{\rm{D}}_{\_0}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) = 0 $ | (7) |
2) 采用向前分布算法,得到第n步的模型:
$ F_{{\rm{G}}{{\rm{D}}_{{\rm{\_n}}}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) = F_{{\rm{G}}{{\rm{D}}_{{\rm{\_n - 1}}}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) + T({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}};\theta _{\rm{n}}^k) $ | (8) |
式中FkGD_n-1(Efeature)为当前模型。
3)利用经验风险最小化来确定优化参数θnk*:
$ \begin{array}{l} \theta _n^{k * } = {\rm{arg}}\mathop {{\rm{ min }}}\limits_{\theta _n^k} \sum\limits_{({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}},u) \in {L_k}} {{\rm{ Loss }}} [u,F_{G{D_{\_n - 1}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) + \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} T({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}};\theta _n^k)] \end{array} $ | (9) |
其中,(Efeature, u)∈Lk,u∈{0, 1}。当歧义词w的语义类为sk时,u的值为1;w的语义类不为sk时,u的值为0。Loss为损失函数,采用平方差误差损失函数来进行计算:
$ \begin{array}{l} {\rm{ Loss}} [u,F_{{\rm{G}}{{\rm{D}}_{\_n - 1}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) + T({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}};\theta _n^k)] = \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {[u - F_{{\rm{G}}{{\rm{D}}_{\_n - 1}}}^k({\mathit{\boldsymbol{E}}_{{\rm{feature}}}}) - T({\mathit{\boldsymbol{E}}_{{\rm{feature}}}};\theta _n^k)]^2} \end{array} $ | (10) |
使用softmax函数来计算w属于语义类sk的概率,选择具有最大概率的语义类作为歧义词w的预测语义类别。基于梯度提升决策树的词义消歧模型FGD(Efeature)为:
$ {F_{{\rm{GD}}}}({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) = {\rm{arg}}\mathop {{\rm{max}}}\limits_{k = 1,2, \cdots ,m} \frac{{{\rm{exp}}(F_{{\rm{GD}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}))}}{{\sum\limits_{k = 1}^m {{\rm{exp}}} (F_{{\rm{GD}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}))}} $ | (11) |
对于歧义词w而言,设计m个二类SVM模型FSVM1(Efeature、FSVM2(Efeature)、…、FSVMm(Efeature)来进行消歧。其中,FSVMk(Efeature)用于判别歧义词w是否属于语义类别sk:
$ F_{{\rm{SVM}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) = {\rm{sgn}} ({w_k}{\mathit{\boldsymbol{E}}_{{\rm{ feature }}}} + {b_k}) $ | (12) |
式中:wk为分类超平面的法向量;bk为分类超平面截距;sgn为符号函数。
二类SVM模型的基本原理是寻找一个最优超平面将正负类样本正确地分开。利用包含歧义词w的语义标注语料集合Lk来优化FSVMk(Efeature)的参数,获得优化后的参数wk*和bk*:
$ \left\{ {\begin{array}{*{20}{l}} {w_k^* = \sum\limits_{({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}},u) \in {L_k}} {\alpha _i^*} {\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}u}\\ {b_k^* = - \frac{1}{2}w_k^*(\mathit{\boldsymbol{E}}_{{\rm{ feature }}}^i + \mathit{\boldsymbol{E}}_{{\rm{ feature }}}^j)} \end{array}} \right. $ | (13) |
式中:(Efeature, u)∈Lk,u∈{0, 1}。当歧义词w的语义类为sk时,u的值为1;w的语义类不为sk时,u的值为0。Lk中的实例划分为2个类别,一个是语义类别为sk的,另一个是语义类别不为sk的。Efeaturei和Efeature>j为这2个类别中的任意一对支持向量。
使用softmax函数来计算w属于语义类sk的概率,选择具有最大概率的语义类作为歧义词w的预测语义类别。SVM词义消歧模型FSVM(Efeature):
$ {F_{{\rm{SVM}}}}({\mathit{\boldsymbol{E}}_{{\rm{feature}}}}) = \mathop {{\rm{ argmax }}}\limits_{k = 1,2, \cdots ,m} \frac{{{\rm{exp}}(F_{{\rm{SVM}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}})}}{{\sum\limits_{k = 1}^m {{\rm{exp}}} (F_{{\rm{SVM}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}))}} $ | (14) |
分类模型会根据自己学习到的知识来对未标记数据进行预测。本文运用软投票策略来融合FLR(Efeature)、FGD(Efeature)和FSVM(Efeature),获取集成词义消歧模型FEN(Efeature)。在确定歧义词w的语义类别时,不但考虑了少数服从多数的原则,而且考虑了模型对语义类别的概率分布。基于软投票集成的词义消歧过程如下:
输入:歧义词w的特征向量Efeature,
输出:歧义词w的语义类别S。
1) 利用式(1)计算FLRk(Efeature),歧义词w在语义类别sk下的概率为P(sk|w, FLR)=FLRk(Efeature),其中,k=1, 2, …, m。
2) 利用式(6)计算FGDk(Efeature),歧义词w在语义类别sk下的概率为:
$ \begin{array}{l} P({s_k}|w,{F_{{\rm{GD}}}}) = ({\rm{exp}}(F_{{\rm{GD}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}))/\\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} \sum\limits_{k = 1}^m {{\rm{exp}}} (F_{{\rm{GD}}}^k({\mathit{\boldsymbol{E}}_{{\rm{feature}}}}))),k = 1,2, \cdots ,m。\end{array} $ | (15) |
3) 利用式(12)计算FSVMk(Efeature),歧义词w在语义类别sk下的概率为:
$ \begin{array}{*{20}{c}} {P({s_k}|w,{F_{{\rm{SVM}}}}) = F_{{\rm{SVM}}}^k({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}})/}\\ {\sum\limits_{k = 1}^m {{\rm{exp}}} (F_{{\rm{SVM}}}^k({\mathit{\boldsymbol{E}}_{{\rm{feature}}}})),k = 1,2, \cdots ,m}。\end{array} $ | (16) |
4) 利用FLRk(Efeature)、FGDk(Efeature)和FSVMk(Efeature)来计算歧义词w在语义类sk下的概率P为:
$ \begin{array}{l} P = (P({s_k}|w,{F_{{\rm{LR}}}}) + P({s_k}|w,{F_{{\rm{GD}}}}) + \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} P({s_k}|w,{F_{{\rm{SVM}}}}))/3。\end{array} $ | (17) |
5) 集成分类器为:
$ \begin{array}{l} S = {F_{{\rm{EN}}}}({\mathit{\boldsymbol{E}}_{{\rm{ feature }}}}) = \mathop {{\rm{ argmax }}}\limits_{k = 1,2, \cdots ,m} (P({s_k}|w,{F_{{\rm{LR}}}}) + \\ {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} {\kern 1pt} P({s_k}|w,{F_{{\rm{GD}}}}) + P({s_k}|w,{F_{{\rm{SVM}}}}))/3 \end{array} $ | (18) |
选择具有最大概率的语义类作为歧义词w的预测语义类别。
通过集成多个基本分类模型能够提高词义消歧的性能。但是,大规模标注语料的语义类别是非常困难的。因此,本文以人工语义标注语料为基础,结合大量无标注语料来提高集成分类器FEN(Efeature)的性能。利用人工语义标注语料来训练FLRk(Efeature)、FGDk(Efeature)和FSVMk(Efeature),获得优化后的集成分类器FEN(Efeature);使用优化后的FEN(Efeature)对无标注语料进行词义消歧,将置信度高的句子及其自动输出的语义类别加到语义标注语料中;重复这一过程直到达到循环终止条件,从而获得优化的集成分类器FEN(Efeature)。
从语义标注语料中,抽取包含歧义词w的汉语句子。从每一个汉语句子中,抽取歧义词w的特征向量。歧义词w的特征向量和标注的语义类别构成二元组。将歧义词w的所有二元组搜集起来形成集合L。从无标注语料中,抽取包含歧义词w的汉语句子。从每一个汉语句子中,抽取歧义词w的特征向量。将歧义词w的所有特征向量搜集起来形成集合U。基于半监督集成学习的词义消歧分类器的训练过程:
输入:语义标注集合L和无语义标注集合U。
输出:词义消歧分类器FEN(Efeature)。
1) 利用L来训练FLRk(Efeature)、FGDk(Efeature)和FSVMk(Efeature),其中,k=1, 2, …, m,构造集成分类器FEN(Efeature)。
2) 选择
3)
4) 若U不为空集,则重复执行步骤1到步骤4);否则,执行步骤5)。
5) 输出优化后的词义消歧分类器FEN(Efeature)。
4 实验结果与分析采用SemEval-2007: Task#5的训练语料和测试语料来度量本文所提出方法的性能。从SemEval-2007: Task#5中,选取28个常用的歧义词。其中,具有2种语义类的歧义词共有16个,分别为“表面”、“菜”、“单位”、“动摇”、“儿女”、“机组”、“镜头”、“开通”、“气息”、“气象”、“使”、“推翻”、“望”、“眼光”、“震惊”、“中医”。具有3种语义类的歧义词共有9个,分别为“补”、“本”、“成立”、“队伍”、“旗帜”、“日子”、“天地”、“挑”、“长城”。具有4种语义类的歧义词共有3个,分别为“吃”、“动”、“叫”。共进行了8组实验来度量本文所提出方法的性能。在这8组实验中,都选择了歧义词左右邻接的4个词汇单元的词形、词性和语义类作为消歧特征。
实验1采用FLR(Efeature)作为词义消歧分类模型。实验2利用FGD(Efeature)进行词义消歧。实验3采用FSVM(Efeature)作为词义消歧分类模型。实验4利用FEN(Efeature)进行词义消歧。使用SemEval-2007: Task#5的训练语料来优化这4组实验的词义消歧模型。实验1到实验4采用有监督学习方法来训练词义消歧分类器。利用优化后的FLR(Efeature)、FGD(Efeature)、FSVM(Efeature)和FEN(Efeature)对SemEval-2007: Task#5的测试语料进行语义分类。
采用SemEval-2007提供的评测指标来进行评测,计算过程为:
$ {p_i} = \frac{{{m_i}}}{{{n_i}}},{p_{{\rm{avg}}}} = \frac{{\sum\limits_{i = 1}^N {{p_i}} }}{N} $ | (19) |
式中:N为所有目标歧义词汇数目;mi是第i个歧义词汇正确分类的测试句子数;ni是包含第i个歧义词的所有测试句子数;pi为第i个歧义词的消歧准确率;pavg为词义消歧的平均准确率。
实验1~4的消歧准确率如表 2所示。
实验4的消歧平均准确率达到了70.80%,比实验1提高了13.20%,比实验2提高了4.40%,比实验3提高了15.40%。其原因在于:实验4采用软投票对逻辑回归模型、梯度提升决策树和SVM模型进行集成,综合了各种分类模型的优点,取长补短,其消歧效果要比单一分类模型好。
实验5~8利用本文所提出的方法来进行词义消歧。以SemEval-2007: Task#5的训练语料为基础,结合哈尔滨工业大学无标注语料使用本文所提出的方法来优化集成分类器FEN(Efeature)。在训练结束后,获得了优化的集成分类器FEN(Efeature)。同时,也得到了半监督学习下的优化的FLR(Efeature)、FGD(Efeature)和FSVM(Efeature)。实验5利用半监督学习获得的FLR(Efeature)作为词义消歧分类器。实验6使用半监督学习获得的FGD(Efeature)进行词义消歧。实验7利用半监督学习获得的FSVM(Efeature)作为词义消歧分类器。实验8使用半监督学习获得的FEN(Efeature)进行词义消歧。在实验5~8中,分别对SemEval-2007: Task#5的测试语料进行语义分类。实验5~8的消歧准确率如表 3所示。
对比表 2和表 3可以看出:实验5的平均消歧准确率比实验1提高了0.10%;实验6的平均消歧准确率比实验2提高了3.60%;实验7的平均消歧准确率比实验3提高了0.40%;实验8的平均消歧准确率比实验4提高了2.0%。其原因为:实验1到实验4是以人工语义标注语料为基础,采用有监督学习方法来优化词义消歧模型。大规模人工标注语料的语义类别是极其困难的,因此,实验1~4所获取的语言学知识将是有限的。实验5~8是以人工语义标注语料为基础,结合大量无标注语料采用半监督学习方法来优化词义消歧模型。大量无标注语料是比较容易获得的,其中蕴含了丰富的语言学知识,能够为词义消歧过程提供指导信息。因此,实验5的平均消歧准确率要高于实验1,实验6的平均消歧准确率要高于实验2,实验7的平均消歧准确率要高于实验3,实验8的平均消歧准确率要高于实验4。
在实验5~8中,分别统计具有2种、3种和4种语义类的词汇的平均消歧准确率,如图 2所示。
Download:
|
|
从图 2中可以看出:在2种、3种和4种语义类下,FEN(Efeature)的平均消歧准确率要好于FLR(Efeature)、FGD(Efeature)和FSVM(Efeature)。
5 结论1) 本文所提出方法的消歧性能要优于逻辑回归模型、梯度提升决策树和支持向量机,能够更准确地确定歧义词汇的语义类别。
2) 根据实验论证能够证明本文提出的方法具有一定的优势,能够更加准确地确定中文歧义词的具体含义,可以应用到中文消歧的实践中。
[1] |
翟东海, 崔静静, 聂洪玉, 等. 基于语义相似度的话题关联检测方法[J]. 西南交通大学学报, 2015, 50(3): 517-522. ZHAI Donghai, CUI Jingjing, NIE Hongyu, et al. Topic link detection method based on semantic similarity[J]. Journal of Southwest Jiaotong University, 2015, 50(3): 517-522. (0) |
[2] |
王李冬, 张引, 吕明琪. 基于词组主题建模的文本语义压缩算法[J]. 西南交通大学学报, 2015, 50(4): 755-763. WANG Lidong, ZHANG Yin, LYU Mingqi. Document semantic compression algorithm based on phrase topic model[J]. Journal of Southwest Jiaotong University, 2015, 50(4): 755-763. (0) |
[3] |
钱涛, 姬东鸿, 戴文华. 一个基于超图的词义归纳模型[J]. 四川大学学报(工程科学版), 2016, 48(1): 152-157. QIAN Tao, JI Donghong, DAI Wenhua. A hypergraph model for word sense induction[J]. Journal of Sichuan University (engineering science edition), 2016, 48(1): 152-157. (0) |
[4] |
VIJ S, JAIN A, TAYAL D, et al. Fuzzy logic for inculcating significance of semantic relations in word sense disambiguation using a WordNet graph[J]. International journal of fuzzy systems, 2018, 20(2): 444-459. DOI:10.1007/s40815-017-0433-8 (0)
|
[5] |
CORRÊA JR E A, LOPES A A, AMANCIO D R. Word sense disambiguation:a complex network approach[J]. Information sciences, 2018, 442-443: 103-113. DOI:10.1016/j.ins.2018.02.047 (0)
|
[6] |
TRIPODI R, PELILLO M. A game-theoretic approach to word sense disambiguation[J]. Computational linguistics, 2017, 43(1): 31-70. DOI:10.1162/COLI_a_00274 (0)
|
[7] |
ABUALHAIJA S, ZIMMERMANN K H. D-Bees:a novel method inspired by bee colony optimization for solving word sense disambiguation[J]. Swarm and evolutionary computation, 2016, 27: 188-195. DOI:10.1016/j.swevo.2015.12.002 (0)
|
[8] |
TORRES-RAMOS S, ROMAN-GODINEZ I, MENDIZABAL-RUIZ E G. An associative method for Lesk-based word sense disambiguation[J]. Revista signos, 2017, 50(94): 287-308. (0)
|
[9] |
KANG M Y, KIM B, LEE J S. Word sense disambiguation using embedded word space[J]. Journal of computing science and engineering, 2017, 11(1): 32-38. DOI:10.5626/JCSE.2017.11.1.32 (0)
|
[10] |
BA ÇKAYA O, JURGENS D. Semi-supervised learning with induced word senses for state of the art word sense disambiguation[J]. Journal of artificial intelligence research, 2016, 55: 1025-1058. DOI:10.1613/jair.4917 (0)
|
[11] |
GIULIANO C, GLIOZZO A M, STRAPPARAVA C. Kernel methods for minimally supervised WSD[J]. Computational linguistics, 2009, 35(4): 513-528. DOI:10.1162/coli.2009.35.4.35407 (0)
|
[12] |
杨陟卓. 基于上下文翻译的有监督词义消歧研究[J]. 计算机科学, 2017, 44(4): 252-255, 280. YANG Zhizhuo. Supervised WSD method based on context translation[J]. Computer science, 2017, 44(4): 252-255, 280. (0) |
[13] |
孟禹光, 周俏丽, 张桂平, 等. 引入词性标记的基于语境相似度的词义消歧[J]. 中文信息学报, 2018, 32(8): 9-18. MENG Yuguang, ZHOU Qiaoli, ZHANG Guiping, et al. Word sense disambiguation based on context similarity with POS tagging[J]. Journal of Chinese information processing, 2018, 32(8): 9-18. (0) |
[14] |
WANG Tinghua, LI Wei, LIU Fulai, et al. Sprinkled semantic diffusion kernel for word sense disambiguation[J]. Engineering applications of artificial intelligence, 2017, 64: 43-51. DOI:10.1016/j.engappai.2017.05.010 (0)
|
[15] |
郭瑛媚, 史晓东, 陈毅东, 等. 基于话题分布相似度的无监督评论词消歧方法[J]. 北京大学学报, 2013, 49(1): 95-101. GUO Yingmei, SHI Xiaodong, CHEN Yidong, et al. Unsupervised opinion word disambiguation based on topic distribution similarity[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2013, 49(1): 95-101. (0) |
[16] |
杨安, 李素建, 李芸. 基于领域知识和词向量的词义消歧方法[J]. 北京大学学报(自然科学版), 2017, 53(2): 204-210. YANG An, LI Sujian, LI Yun. Word sense disambiguation based on domain knowledge and word vector model[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2017, 53(2): 204-210. (0) |
[17] |
鹿文鹏, 黄河燕, 吴昊. 基于领域知识的图模型词义消歧方法[J]. 自动化学报, 2014, 40(12): 2836-2850. LU Wenpeng, HUANG Heyan, WU Hao. Word sense disambiguation with graph model based on domain knowledge[J]. Acta automatica sinica, 2014, 40(12): 2836-2850. (0) |
[18] |
HUNG C, CHEN S J. Word sense disambiguation based sentiment lexicons for sentiment classification[J]. Knowledge-based systems, 2016, 110: 224-232. DOI:10.1016/j.knosys.2016.07.030 (0)
|
[19] |
唐共波, 于东, 荀恩东. 基于知网义原词向量表示的无监督词义消歧方法[J]. 中文信息学报, 2015, 29(6): 23-29. TANG Gongbo, YU Dong, XUN Endong. An unsupervised word sense disambiguation method based on sememe vector in HowNet[J]. Journal of Chinese information processing, 2015, 29(6): 23-29. (0) |
[20] |
许坤, 冯岩松, 赵东岩, 等. 面向知识库的中文自然语言问句的语义理解[J]. 北京大学学报(自然科学版), 2014, 50(1): 85-92. XU Kun, FENG Yansong, ZHAO Dongyan, et al. Automatic understanding of natural language questions for querying Chinese knowledge bases[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2014, 50(1): 85-92. (0) |
[21] |
WANG Yue, ZHENG Kai, XU Hua, et al. Interactive medical word sense disambiguation through informed learning[J]. Journal of the American medical informatics association, 2018, 25(7): 800-808. DOI:10.1093/jamia/ocy013 (0)
|
[22] |
YEPES A J. Word embeddings and recurrent neural networks based on Long-Short Term Memory nodes in supervised biomedical word sense disambiguation[J]. Journal of biomedical informatics, 2017, 73: 137-147. DOI:10.1016/j.jbi.2017.08.001 (0)
|