实体关系抽取是自动构建知识库的基础,同时在自动问答、信息检索等多个领域具有重要的应用价值。传统实体关系抽取方法主要有基于模式匹配或基于有监督的统计机器学习。随着关系抽取从限定关系类型转向开放领域,数据源从标准语料库转向海量的网络数据,传统基于模式匹配和有监督统计机器学习的方法逐渐显示出局限性。由于开放领域的关系类型数量巨大,不同关系的模式表现形式多样,变化较大,在基于模式匹配的方法中,难以用人工方式定义全部的模式。在基于有监督机器学习方法中,人工标注训练语料需要耗费大量的人力和时间,面向海量的网络数据,人工标注几乎是不可能的。如何能够监督最小化,即不使用人工标注或减少人工标注,也能构建高性能的关系抽取系统是当前的研究热点。由于基于弱监督学习(weakly supervised learning)的关系抽取方法能够在较少人工干预下、自动获取训练语料而受到了广泛的关注。基于弱监督学习的关系抽取框架依赖于一个某领域的知识库,从知识库中可以获取关系三元组,同时需要大量的文本集。从文本集中寻找含有关系实体对的句子,用来建立训练集,然后用这个训练集训练抽取器,从测试文本集中抽取关系实例。现有方法都是自动抽取含有关系实体对的句子作为训练语料,这种利用实体对共现得到的训练语料很不可靠,例如,从知识库中获取关系三元组,〈鲁迅,国籍,中国〉,从文本集中获取含有实体对〈鲁迅,中国〉的句子:“鲁迅以小说创作起家。1918年在《新青年》杂志发表的《狂人日记》是中国现代白话小说的开山之作,影响深远”。这句话并没有表达鲁迅国籍是中国的关系。Riedel等[1]在纽约时报文本集中进行统计,发现含有国籍关系实体对的句子中38%的句子没有表达国籍这个关系,含有出生地关系实体对的句子中有35%的句子没有表达出生地关系。利用有噪声的训练语料训练模型会影响准确率,降低抽取性能。为了提高训练语料的准确率,文中利用关系词语对训练语料进行约束,即句子中不仅要有实体对,还要有表达关系的词语。由于知识库中的关系实例数量有限,导致训练语料可能较少,存在特征不足的问题,文中利用训练语料训练句子分类器,并基于bootstrapping方法迭代地从未标注数据中获取新的训练语料。最后利用CRF模型训练关系抽取器。文中的主要贡献有:
1) 与利用实体对获取训练语料相比,利用关系三元组获取训练语料的质量有了明显提升;
2) 引入了句子分类器从未标注语料中提取新的训练语料,缓解了训练语料不足问题;
3) 以互动百科信息盒中的关系实例作为知识库,互动百科条目文本作为训练文本集和测试文本集进行实验,验证了文中方法的有效性。
1 相关工作实体关系抽取研究始于信息理解会议(message understanding conference,MUC)。1998年最后一次MUC-7上首次提出了关系抽取任务。在MUC-7之后,MUC被自动内容抽取(automatic content extraction,ACE)评测所取代。ACE由美国国家标准技术研究院NIST组织,从1999年至2008年已经举办过9次评测,2008年ACE评测改名为文本分析会议(text analysis conference,TAC),从2008年至今已经举行了6次评测。ACE评测中关系抽取任务包括7个大类关系和若干个子关系。实体关系抽取方法主要有模式匹配的方法和机器学习的方法。在模式匹配的方法中,模式的自动获取技术是研究的关键。机器学习方法根据是否需要人工标注训练语料分为有监督机器学习、半监督机器学习和无监督机器学习。有监督学习方法有特征向量的方法[2, 3, 4]和核函数的方法[5, 6]。半监督学习方法以少量的关系实例为种子,采用不断迭代的方法从未标注语料中抽取可靠性较高的关系实例[7]。无监督关系抽取主要使用聚类方法[8, 9],并为聚类后的簇赋予关系名称。
弱监督学习的关系抽取最早由Craven和Kumlien提出[10],用于从学术文献的摘要中抽取蛋白质与基因之间的关系。Wu等[11]利用维基百科信息盒中结构化的〈属性,属性值〉二元组对维基百科条目文本的句子进行回标,自动获取属性关系抽取训练语料,并使用CRF模型为每个属性训练抽取器。Bunescu等[12]分别将具有关系的实体对正例和反例作为查询请求,从搜索引擎查询结果中提取包含实体对的句子作为训练语料。Mintz等[13]从Freebase www.freebase.com中获取具有关系的实体对,从维基百科条目文本中获取关系抽取的训练数据。Mintz的方法基于以下假设:如果2个实体之间存在某种关系,那么所有含有实体对的句子都描述了这个关系。Yao等[14]对Mintz等[13]提出的方法进行了改进,把关系抽取和实体的种类综合考虑,利用实体的类别来过滤掉部分错误的关系。Riedel等[1]认为Mintz的假设过于严格,含有关系实体对的句子并不一定表达了该关系。Riedel将Mintz的假设放松为:如果2个实体之间存在某种关系,那么含有实体对的句子中至少有一个句子描述了该关系。Surdeanu等[15]基于弱监督学习对TAC-KBP进行属性模板填充,先将维基百科信息盒中的半结构化信息映射至KBP结构化的属性模板,再从语料中获取包含实例名和属性值二元组的句子作为训练语料。陈立玮和冯岩松等[16]从互动百科信息盒中获取实体对,从新闻数据中获取训练语料,提出了bootstrapping思想的协同训练方法来对弱监督关系抽取模型进行强化,并提出了将传统特征与n-gram特征相结合进行协同训练的方法。
2 弱监督学习的关系抽取方法弱监督学习的关系抽取框架包括3个重要的因素:知识库、训练语料和抽取模型。
2.1 知识库
互动百科是目前最大的中文网络百科之一,互动百科的部分条目中,存在人工创建的信息盒,信息盒中包含了大量半结构化的关系三元组。例如,从互动百科条目“西南交通大学”信息盒中能够获取关系三元组〈西南交通大学,创建时间,1896年〉。其中,“西南交通大学”是关系主体,“1896年”是关系客体,创建时间为关系词语。经统计发现,互动百科信息盒中的关系名称是统一定义的,具有较好的唯一性和标识性。文中利用互动百科信息盒获取关系三元组,构造知识库。信息盒是半结构化信息,某些关系有多个客体(如“知名校友”一栏中有多个人名),某些关系的客体不是实体词,而是1个句子(如“校训”),因此需要对其进行结构化处理。由于实体关系抽取依赖于命名实体识别,因此只提取主体和客体是命名实体的关系。对于1个关系具有多个客体的情况,例如“知名校友”信息盒中的内容为:林同炎,刘大同,张维。分别组成3个关系三元组:〈西南交通大学,知名校友,刘大同〉、〈西南交通大学,知名校友,林同炎〉和〈西南交通大学,知名校友,张维〉。
2.2 训练语料 2.2.1 训练语料自动获取现有弱监督学习的关系抽取框架是利用关系实体对从文本中获取训练语料的,然而,包含实体对的句子有时并不是关系描述语句。基于实体对的共现自动建立起来的训练语料中有大量的噪声,正确的训练语料并不多。为了提高训练语料的准确率,假设关系描述语句中通常以某个特定的关系关键词为核心,例如,“所属地区”关系的表达可能为“位于、处于、属于”等。 “创建时间”关系的表达可能为“创立、创建、成立”等。知识库中的关系名称是统一的,然而语句中对关系的表达有多种方式。如果直接匹配关系词语,会导致过低的召回率,因此,需要将关系关键词进行同义扩展。
首先采用西南交通大学中文分词[17]对关系词语进行细粒度分词。例如,“创建时间”细粒度分词后为“创建”和“时间”2个词。然后分别对这2个词语进行同义扩展。文中采用基于同义词词林 [18]的语义相似度计算扩展关系词语。语义相似度计算采用田久乐等[19]提出的方法。该方法是根据词语的义项在同义词词林的位置和编码计算出词语的语义相似度。满足相似度阈值的词语都视为同义词。词语相似度的值受到3个因素的制约:分支层系数、分支层节点总数和分支间隔。为了避免语义漂移,文中仅计算第5层分支词语间的语义相似度。例如,“创建”的同义词为“创立、开创、创始、创建、创办”等,“时间”的同义词为“时间、时刻、时日、工夫、日子、光阴”等。将扩展后的这些同义词组合成为新的关系关键词,例如“创立时间、开创时刻”等。同义词词典的关系关键词获取受到词典规模的限制,无法对未登录词进行同义扩展。因此,在提取训练语料时,若某一含有关系实体对的句子中某词语与关系关键词的字面相似度[20]大于45%,该词语成为关系关键词,该句子成为训练数据。
从知识库中提取关系三元组〈西南交通大学,创建时间,1896年〉,百科文本集中有一个包含西南交通大学和1896年的句子,该句子同时包含关系关键词“创建”,如图 1所示。提取该句子作为“创建时间”关系的训练语料。
2.2.2 基于句子分类器的训练语料优化与人工标注的可靠的训练语料不同,由于自然语言预处理错误或知识库中的关系客体在文本中不存在,就会导致错误和遗漏的标注。特别是由于知识库中的关系实例数量较少时,自动获取的训练语料数量较少,许多测试数据中的特征在训练语料中很少出现甚至不存在。文中将已标注的训练语料作为正例,从未标注数据中提取部分数据作为反例,采用bootstapping方法训练分类器,然后对未标注数据进行分类,标注为正例的数据作为新的训练数据。
一个分类器性能的优劣往往取决于选择的特征是否能够最大程度地表达不同类别的差异,选择恰当的特征有助于学习到性能较好的分类器,实现不同类别的最优划分。句子分类常用的特征包括词法特征、句法特征和n-gram特征。词法特征由句子中的词序列和词性序列构成,而句子中的语言描述过于具体,很难在其他的句子中再次出现,导致严重的数据稀疏性问题,也使得训练出的模型缺乏泛化能力。句法特征从句子的依存句法分析结果中获取。句法特征也存在词法特征中的数据稀疏性问题,并且句法特征依赖于句法分析的效果,然而现有中文句法分析工具的准确率都不是很理想,导致句法特征不可靠。n-gram特征通常是文本中n个连续词组成的序列,可以捕捉到局部范围内连续词语之间的序列关系,体现语法习惯,n-gram只包含3~4个词,因而不会像传统词法特征那样过于具体,导致特征稀疏,几乎不可能再现。除了传统词语序列的n-gram特征,文献[16]把连续词语的词性标注组织成词性序列n-gram特征;以及把词语和它的词性序列组成n-gram特征,并使用tri-gram,即n=3。
文中采用由词语和它的词性组成的n-gram特征,并令n=1,2,3。
1-gram:1个词语+词性 (wordi / posi) (wordi)
2-gram:2个连续词语+词性(wordi / posi ,wordi+1 / posi+1)
3-gram:3个连续词语+词性(wordi / posi ,wordi+1 / posi+1 ,wordi+2 / posi+2)
从句子中2个实体词之间的文本中提取1/2/3-gram作为特征值。1/2/3-gram表示既取1-gram,又取2-gram、3-gram。例如句子“英国威尔士大学/ntu 圣三一学院/nt 成立/v 于/p 1848年/t”中提取了多个1-gram “圣三一学院 / nt”、“成立 / v”、“于 / p”等,以及多个2-gram“圣三一学院 / nt ,成立 / v”、“成立 / v ,于 / p”等。
文中利用朴素贝叶斯分类(nave Bayes classification,NBC)模型训练句子分类器。训练数据作为正例,从未标注数据中提取部分数据(未标注数据中也含有实体对)作为反例,首先提取正例特征和反例特征训练分类器,然后对未标注数据进行分类,对新正例进行标注,并将新正例加入到训练语料中。对新正例进行标注的方法是根据实体类别分别标注关系主体和关系客体,将出现概率最大n-gram标注为关系关键词。例如,1-gram“成立”出现概率最大,那么“成立”就是关系关键词,若句子中有多个关系主体或客体,则标注最先出现的实体对作为关系主体和客体。
2.3 抽取模型条件随机场(conditional random field,CRF)是由Lafferty等[21]于2001年首先提出,是目前优秀的机器学习模型之一。已被广泛用于中文分词、实体识别、词性标注和信息提取等自然语言处理领域。CRF是一个判别式模型,其最简单的形式是线性的CRF,即模型中各个节点之间构成线性结构。一个线性的CRF对应于一个有限状态机,它非常适合于进行线性数据序列的标注,在信息提取任务中,基于CRF用于序列标注的优势,将信息提取问题转换成目标信息的序列标注问题。
为了进行CRF的训练,文中在训练语料中引入标注集对训练语料进行转换。文中使用的是BIESO序列标注集,其中B代表关系关键词的开始;I代表关系关键词的内部;E代表关系关键词的结尾;S代表独立的实体;O代表了当前词既不是实体,也不是关系关键词。
例如对训练语句“滨海大学/ntu 是/vshi 一所/mq 综合性/n 国立大学/nis ,/w 成立/vi 于/p 1991年/t”进行序列标注如图 2。
图 2中,S-SUB表示关系主体,S-OBJ表示关系客体,B-REL表示关系关键词的开始,E-REL表示关系关键词结尾。将该训练语句转换为序列标注的形式如表 1。
特征1 | 特征2 | 标注 |
滨海大学 | ntu | S-SUB |
是 | shi | O |
一所 | mq | O |
综合性 | n | O |
国立大学 | nis | O |
, | w | O |
成立 | v | B-REL |
于 | p | E-BEP |
1991年 | t | S-OBJ |
在CRF建立抽取模型过程中,特征选取与特征模板的制定是一项重要任务。特征选取时CRF模型不仅能够综合使用字、词、词性、词形等上下文信息,还能利用各种外部信息,如词典等。文中选取词本身、词性、上下文信息(定义活动的窗口)作为特征。“上下文信息”指的是包括当前词在内的及其前后若干个词所组成的观察窗口[22]。窗口过大,选择的特征会急剧增加,影响运行效率;窗口过小,选择的特征较少,影响抽取器的性能。根据分析,选择长度为3的窗口,即观察包含当前词在内以及其前后各2个词。特征模板如表 2所示。
模板形式 | 模板含义 |
W(0) | 当前词 |
W(-1) | 当前词左边第1个词 |
W(-2) | 当前词左边第2个词 |
W(1) | 当前词右边第1个词 |
W(2) | 当前词右边第2个词 |
P(0) | 当前词词性 |
P(-1) | 当前词左边第1个词的词性 |
P(-2) | 当前词左边第2个词的词性 |
P(1) | 当前词右边第1个词的词性 |
P(2) | 当前词右边第2个词的词性 |
W(0)P(0) | 当前词和词性 |
W(-1)P(-1) | 当前词左边第1个词和词性 |
W(-2)P(-2) | 当前词左边第2个词和词性 |
W(1)P(1) | 当前词右边第1个词和词性 |
W(2)P(2) | 当前词右边第2个词和词性 |
弱监督关系抽取需要结构化知识库构建训练集。知识的表达形式为三元组,即〈主体,关系,客体〉的结构。选用互动百科信息盒构造结构化知识库并进行分词和实体识别预处理,关系三元组中的主体和客体必须为命名实体,从中选取“创建时间”、“国籍”、“出生年月”、“所属地区”等4种关系进行实验。文本集采用互动百科条目文章。这里以“创建时间”关系为例对语料进行说明。关系主体类型为机构名(词性标注为nt),客体类型为时间(词性标注为t)。从信息盒中抽取关系三元组共有9 257个,匹配句子有6 876个,从其余未匹配的句子中提取含有实体二元组〈nt,t〉的句子作为测试文本集,测试文本集中的句子数共114 831个。
实验结果的评价包括分类器的评价和抽取器的评价。分类器的性能用从测试文本集中得到的正例中正确标记的关系比率来评价,正确的比率越大说明分类器的性能越好。实验从测试文本集中得到正确的正例数量为T2,正例总数记为T1。准确率PC计算公式如式(1):
由于从测试文本集中生成的正例总数较多,故采用随机抽样的评价方法。文中设计了3种n-gram特征:词语序列特征、词性序列特征、以及词语和词性组合序列特征。这里分别测试了3种特征的分类器准确率(PC),测试结果如表 3所示。
通过表 3看出,用词语序列作为特征的分类器准确率最好,其次是词语+词性序列特征。然而词语序列作为特征的分类器获取的新正例数量较少,用词语+词性序列特征和词性特征获取新正例的数量均较多。例如表 4中,对于“创建时间”关系,用词语+词性序列获取的新正例数量为4 174个,用词语序列获取的新正例仅为2 697个;对于“出生年月”关系,用词语+词性获取的新正例数量为3 491个,用词语序列获取的新正例仅有1 795个。因此,采用词语+词性组合特征的分类器总体性能最好。
在抽取器的评价中,文中采用关系的准确率(P)、召回率(R)、F值(F-Score)作为最终的评价标准,计算方法如式(2)~(4)所示。
式中:V1是抽取正确的关系个数;V2是抽取关系的总个数;V3是语料中关系的个数。将本中方法与不采用分类器直接利用三元组获取的训练语料训练CRF抽取器的抽取结果进行对比,对比结果如表 5所示。从表 5可以看出,与未经过训练语料优化而直接采用CRF训练抽取器的方法相比,文中方法在保持了较高准确率的基础上,召回率也有了较大的提高。说明利用朴素贝叶斯分类器从反例中获取新正例来优化训练语料,在一定程度上提高了训练语料的质量和抽取的性能。在以上4种关系抽取中,创建时间关系的准确率和召回率均较低,这是由于句子中的关系主体(类型为nt)或关系客体(类型为t)不唯一,例如大学机构往往有子机构(如院系等),以子机构的创建时间作为关系客体则会造成错误。
% | |||||||||
关系 |
|
创建时间 | 72 | 11.9 | 20.6 | 68 | 8.8 | 15.6 |
国籍 | 84 | 84.6 | 84.3 | 98 | 72.1 | 83.1 |
出生年月 | 96 | 27.5 | 42.8 | 96 | 33.4 | 49.6 |
所属地区 | 98 | 95.3 | 96.6 | 98 | 77.3 | 86.4 |
现有弱监督学习的关系抽取框架是将关系抽取看做一个分类问题,首先利用实体对获取训练语料,然后训练分类器,从测试文本集的句子中提取实体对,利用分类器对实体对进行关系预测。文中与文献[13]的方法进行对比,对比结果如表 6。
% | |||||||||
关系 |
|
创建时间 | 72 | 11.9 | 20.6 | 47 | 99 | 55.1 |
国籍 | 84 | 84.6 | 84.3 | 0.02 | 99 | 0.03 |
出生年月 | 96 | 27.5 | 42.8 | 66.6 | 70.2 | 68.4 |
所属地区 | 98 | 95.3 | 96.6 | 37.7 | 99 | 54.6 |
通过表 6的实验结果可以看出,现有弱监督学习的关系抽取系统获得较高的召回率,然而,关系预测的准确率非常低,这是由于没有关系词语的约束会导致关系识别错误。尤其在“国籍”关系抽取中,句子中人名和地名共现的情况非常多,而仅有较少的句子表达国籍关系。文中方法的准确率普遍较高,而且“国籍”关系和“所属地区”关系抽取也取得了较高的召回率,总体抽取性能优于现有弱监督学习的关系抽取方法。此外,对于简单句子的抽取效果较好,复杂句子或长句子的抽取效果不好。分词、词性标注、实体标注等自然语言预处理错误对于关系抽取性能也会产生影响。
4 结束语文中提出了一种弱监督学习的关系抽取方法框架,该方法从中文网络百科条目半结构化的信息盒中提取关系三元组构建知识库,利用关系三元组对百科文本中进行回标,包含实体对和关系词语的句子成为关系抽取的训练语料,该方法有效解决了训练语料自动构建的问题。针对训练语料较为稀疏从而导致特征不足的问题,提出了bootstrapping的训练语料优化方法,该方法以已标注的训练语料为正例,以部分未标注数据为反例,训练贝叶斯分类器,然后从未标注数据中提取新的正例,补充训练语料的不足。对于分类器特征提取问题,论文提出一种词和词性组合的n-gram特征,从正例和反例的句子中分别提取词语和词性组合的1/2/3-gram作为特征,训练分类器。实验结果表明优化训练语料能够提升关系抽取的性能。利用关系词语对训练语料和测试语料进行约束,与仅利用实体对共现获取的训练语料进行关系抽取相比,抽取准确率有了显著提高。
[1] | RIEDEL S, YAO L, MCCALLUM A. Modeling relations and their mentions without labeled text[J]. Machine Learning and Knowledge Discovery in Databases, 2010, 6323: 148-163. |
[2] | ZHANG T, Regularized winnow methods[J]. Advance in Neural Information Processing Systems, 2001(13):703-709. |
[3] | KAMBHATLA N. Combining lexical, syntactic and semantic features with maximum entropy models for extracting relations[C]//Proceedings of the ACL, 2004 on Interactive Poster and Demonstration Sessions. Barcelona, Spain, 2004: 178-181. |
[4] | TRATZ S, HOVY E. ISI: automatic classification of relations between nominals using a maximum entropy classifier[C]//Proceedings of the 5th International Workshop on Semantic Evaluation. Uppsala, Sweden, 2010: 222-225. |
[5] | ZELENKO D, AONE C, RICHARDELLA A. Kernel methods for relation extraction [J]. Machine Learning, 2003(3):1083-1106. |
[6] | GIULIANO C, LAVELLI A, PIGHIN D, et al. FBK-IRST: Kernel methods for semantic relation extraction[C]//Proceedings of the 4th International Workshop on Semantic Evaluations (SemEval-2007). Prague, Czech, 2007: 141-144. |
[7] | 程显毅, 朱倩. 未定义类型的关系抽取的半监督学习框架研究[J]. 南京大学学报:自然科学版, 2012, 48(4): 466-474.CHENG Xianyi, ZHU Qian. A study of relation extraction of undefined relation type based on semi-supervised learning framework[J]. Journal of Nanjing University: Natural Sciences, 2012, 48(4): 466-474. |
[8] | BOLLEGALA D, MATSUO Y, ISHIZUKA M. Relational duality: unsupervised extraction of semantic relations between entities on the Web[C]//Proceedings of the 19th World Wide Web Conference. New York, 2010: 151-160. |
[9] | YAN Y, OKACAKI N, MATSUO Y, et al. Unsupervised relation extraction by mining Wikipedia texts using information from the Web[C]//Proceedings of the Joint Conference of the 46th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP. Singapore, 2009: 1021-1029. |
[10] | CRAVEN M, KUMLIEN J. Constructing biological knowledge bases by extracting information from text sources[C]//Proceedings of the 7th International Conference on Intelligent Systems for Molecular Biology. Palo Alto, CA, 1999: 77-86. |
[11] | WU F, DANIEL S W. Autonomously semantifying wikipedia[C]//Proceedings of the ACM Sixteenth Conference on Information and Knowledge Management. New York, 2007: 41-50. |
[12] | BUNESCU R C, MOONEY R J. Learning to extract relations from the web using minimal supervision[C]//Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, 2007: 567-570. |
[13] | MINTZ M, BILLS S, SNOW R. Distant supervision for relation extraction without labeled data[C]//Proceedings of the 47th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, 2009: 1003-1011. |
[14] | YAO LM, RIEDEL S, MCAALLUM A. Collective cross document relation extraction without labeled data[C]//Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, 2010: 1013-1023. |
[15] | SURDANU M, MCCLOSKY D, TIBSHIRANI J, et al. A simple distant supervision approach for the TAC-KBP slot filling task [C]//Proceedings of the Text Analysis Conference 2010-Knowledge Base Population Worksho.[s.l.], 2010:1-5. |
[16] | 陈立玮, 冯岩松, 赵东岩. 基于弱监督学习的海量网络数据关系抽取[J]. 计算机研究与发展, 2013, 50(9): 1825-1835.CHEN Liwei, FENG Yansong, ZHAO Dongyan. Extracting relations from the web via weakly supervised learning[J]. Journal of Computer Research and Development, 2013, 50(9): 1825-1835. |
[17] | 尹红风, 贾真, 李天瑞, 等. 西南交通大学中文分词[EB/OL]. [2012-07-24]. http://ics.swjtu.edu.cn.YIN Hongfeng, JIA Zhen, LI Tianrui, et al. Southwest Jiaotong University Chinese Segmentation [EB/OL]. [2012-07-24]. http://ics.swjtu.edu.cn. |
[18] | CHE W X, LI Z H, LIU T. LTP: a Chinese language technology platform[C]//Proceedings of the Coling 2010.[s.l.], 2010: 13-16. |
[19] | 田久乐, 赵蔚. 基于同义词词林的词语相似度计算方法[J]. 吉林大学学报: 自然科学版, 2010, 28(6): 602-608.TIAN Jiule, ZHAO Wei. Words similarity algorithm based on Tongyici Cilin in semantic Web adaptive learning system[J]. Journal of Jilin University: Inform ation Science Edition, 2010, 28(6): 602-608. |
[20] | 张雪英, 闾国年. 基于字面相似度的地理信息分类体系自动转换方法[J].遥感学报, 2008, 12(3): 433-440.ZHANG Xueying, LU Guonian. Approach to automatic conversion of geographic information classification schemes[J]. Journal of Remote Sensing, 2008, 12(3): 433-440. |
[21] | LAFFERTY J, PEREIRA F, MCCALUM A. Conditional random fields: probabilistic models for segmenting and labeling sequence data[C]//Proceedings of 18th International Conference on Machine Learning. San Francisco: AAAI Press, 2001: 282-289. |
[22] | 张佳宝. 基于条件随机场的中文命名实体识别研究[D]. 长沙:国防科技大学, 2010:45-59.ZHANG Jiabao. The research on conditional random fields based Chinese named entity recognition[D]. Changsha: National University of Defense Technology, 2010: 45-59. |