«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2019, Vol. 14 Issue (4): 820-830  DOI: 10.11992/tis.201804013
0

引用本文  

朱艳辉, 李飞, 冀相冰, 等. 反馈式K近邻语义迁移学习的领域命名实体识别 [J]. 智能系统学报, 2019, 14(4): 820-830. DOI: 10.11992/tis.201804013.
ZHU Yanhui, LI Fei, JI Xiangbing, et al. Domain-named entity recognition based on feedback K-nearest semantic transfer learning [J]. CAAI Transactions on Intelligent Systems, 2019, 14(4): 820-830. DOI: 10.11992/tis.201804013.

基金项目

国家自然科学基金项目(61402165);湖南省教育厅重点项目(15A049);湖南工业大学重点项目(17ZBLWT001KT006);湖南省研究生科研创新项目(CX2017B688).

通信作者

李飞. E-mail: flytoskye@163.com

作者简介

朱艳辉,女,1968年生,教授,主要研究方向为自然语言处理与知识工程。主持或参加国家自然科学基金项目、湖南省自然科学基金等科研项目13项,主持企业横向项目10余项。发表学术论文50余篇,其中被三大检索收录30余篇;
李飞,男,1992年生,硕士研究生,主要研究方向为信息抽取与知识工程;
冀相冰,男,1991年生,硕士研究生,主要研究方向为自然语言处理与知识工程

文章历史

收稿日期:2018-04-10
网络出版日期:2019-03-25
反馈式K近邻语义迁移学习的领域命名实体识别
朱艳辉 1,2, 李飞 1,2, 冀相冰 1,2, 曾志高 1,2, 徐啸 1,2     
1. 湖南工业大学 计算机学院,湖南 株洲 412008;
2. 湖南省智能信息感知及处理技术重点实验室,湖南 株洲 412008
摘要:领域命名实体识别是构建领域知识图谱的重要基础。针对专业领域语料匮乏的特点,构建基于深度学习的BiLSTM-CNN-CRFs网络模型,并提出一种反馈式K近邻语义迁移学习的领域命名实体识别方法。首先,对专业领域语料和通用领域语料分别训练得到语料文档向量,使用马哈拉诺比斯距离计算领域语料与通用语料的语义相似性,针对每个专业领域样本分别取K个语义最相似的通用领域样本进行语义迁移学习,构建多个迁移语料集。然后,使用BiLSTM-CNN-CRFs网络模型对迁移语料集进行领域命名实体识别,并对识别结果进行评估和前馈,根据反馈结果选取合适的K值,作为语义迁移学习的最佳阈值。以包装领域和医疗领域为例进行实验验证,结果表明:本文方法取得了很好的识别效果,可以有效解决专业领域语料匮乏问题。
关键词领域命名实体识别    反馈式K近邻    语义迁移学习    深度学习    卷积神经网络    文档向量    马哈拉诺比斯距离    包装领域    医疗领域    
Domain-named entity recognition based on feedback K-nearest semantic transfer learning
ZHU Yanhui 1,2, LI Fei 1,2, JI Xiangbing 1,2, ZENG Zhigao 1,2, XU Xiao 1,2     
1. School of Computer, Hu’nan University of Technology, Zhuzhou 412008, China;
2. Hu’nan Key Laboratory of Intelligent Information Perception and Processing Technology, Zhuzhou 412008, China
Abstract: Domain-named entity recognition is an important foundation in constructing domain knowledge maps. In view of the scarcity of such recognition, this paper constructs a BiLSTM-CNN-CRFs network model based on deep learning as well as proposes a domain-named entity recognition method based on feedback K-nearest-neighbor semantic transfer learning. First, the corpus of the professional field and the general field were trained to obtain the corpus document vector, and the semantic similarity between the corpus of a domain and the common corpus was calculated using the Mahalanobis distance calculation. For each specialized domain sample, K common domain samples with the most similar semantics were taken for semantic transfer learning, and several transfer corpus sets were constructed. Then, the BiLSTM-CNN-CRFs network model was used to identify domain-named entities in N migration corpuses and evaluate and feedforward the recognition results. An appropriate K value was selected as the best threshold for semantic transfer learning according to the feedback results. The packaging and medical fields were taken as examples for experimental verification. The results showed that the method proposed in this paper has a good recognition effect and can effectively solve the problem of lack of corpus in the field of specialization.
Key words: domain-named entity recognition    feedback K-nearest neighbor    semantic transfer learning    deep learning    CNN    Doc2Vec    Mahalanobis distance    packaging field    medical field    

命名实体识别(named entity recognition,NER)作为信息抽取的子任务,是指将非结构化文本中具有特定意义的实体抽取出来,对文本的结构化起着至关重要的作用。由于其在自然语言处理中的重要地位,许多国际会议,如MUC-6、MUC-7、Conll2002等,都将命名实体识别作为共享任务(share tasks)。国内会议诸如全国语义网与知识图谱计算大会(CCKS 2017),也组织了医疗实体识别的评测任务。传统命名实体识别采用最大熵、隐马尔科夫模型、支持向量机、条件随机场等方法,但传统机器学习方法需要人工定义特征模板,并且无法充分获取隐含信息,对文本长距离依赖关系难以捕捉。随着深度学习的快速发展以及卷积神经网络(convolutional neural network,CNN)、循环神经网络(recurrent neural network,RNN)、长短期记忆网络(long short-term memory ,LSTM)等学习算法的提出,命名实体识别任务在获取隐含信息及捕捉长距离文字依赖关系上取得了长足的进步。命名实体识别是典型的序列标注任务,RNN可以很好地克服传统机器学习的文本长依赖信息难以获取的缺点[1],具有一定的记忆功能,但RNN在训练算法时存在梯度弥散和梯度爆炸问题。因此,Hochreiter等[2]提出了LSTM方法,LSTM是一种特殊的循环神经网络,能够学习到长期依赖关系,以解决RNN梯度消失和梯度爆炸的问题。Yoon[3]首次将CNN应用到自然语言处理领域并获得成功后,由于其可以利用窗口滑动,可以很好地解决词之间的组合特征及一部分依赖问题,故广泛的应用在自然语言处理领域。张海楠等[4]提出了一种用于深度学习框架的字词联合方法,结合字词特征,提高了系统性能,最终取得了较好的F1值。Ma等[5]提出了基于LSTM-CNN-CRFs的端对端序列标注方法,该模型无需数据预处理和特征选择,在Conll2003语料库上F1值为91.21%。Chiu等[6]提出了BiLSTM-CNNs的新型网络框架,在Conll2003语料库取得F1值为91.61%的成绩。姚霖等[7]提出一种基于词边界字向量的中文命名实体识别方法,在Sighan Bakeoff-3语料中取得了F1 值89.18%的效果,上述文献证明了深度学习神经网络用于序列标注任务的可行性和有效性。

迁移学习[8]是运用已有知识对不同但是相关领域问题进行求解的一种新的机器学习方法。其放宽了传统机器学习的两个基本假设,通过减小源域与目标域的数据分布差异,从而从已有的知识中解决目标领域中仅有少量或没有标签样本数据的学习问题。Pan等[9]提出了著名的迁移成分分析(transfer component analysis,TCA)方法,针对域适配(domain adaptation)问题中源域和目标域处于不同数据分布,将2个领域的数据一起映射到一个高维的再生核希尔伯特空间,并在此空间中最小化源和目标的数据距离,同时最大程度地保留它们各自的内部属性。Long等[10]在TCA基础上提出了联合分布适配方法(joint distribution adaptation ,JDA),在源域和目标域条件分布不同的基础上,提出了联合分布适配方法,同时适配源域和目标域的边缘分布和条件分布,在4种类型的跨域图像分类任务上取得了较好的效果。卞则康等[11]提出一种基于相似度学习的多源域迁移SL-MSTL算法,增加对多源域与目标域之间的相似度学习,可以有效地利用各源域中的有用信息。庄福振[12]介绍了迁移学习研究进展,并且针对迁移学习领域所做的工作和未来的方向做了总结和展望。

目前,已有命名实体识别方法在通用领域的人名、地名、组织机构名上取得了较好的效果。然而专业领域由于语料匮乏,导致领域命名实体识别进展缓慢且识别效果差强人意。因此,本文针对专业领域语料匮乏、标注语料缺失等特点,引入迁移学习技术,构建基于深度学习的BiLSTM-CNN-CRFs网络模型,提出一种反馈式K近邻语义迁移学习的领域命名实体识别算法。首先,对专业领域语料和通用领域语料分别训练得到语料文档向量,使用马哈拉诺比斯距离计算领域语料与通用语料的语义相似性,针对每个专业领域样本分别取K个语义最相似的通用领域样本进行语义迁移学习,构建N个迁移语料集。然后,使用BiLSTM-CNN-CRFs网络模型对N个迁移语料集进行领域命名实体识别,并对识别结果进行评估和前馈,根据反馈结果选取合适的K值,作为语义迁移学习的最佳阈值。实验结果表明,K近邻语义迁移学习算法取得了较好的结果,可以有效解决专业领域语料匮乏问题。

1 深度学习BiLSTM-CNN-CRFs网络模型构建

本文利用CNN的词组合特点和LSTM的长期依赖关系,结合CRF作为解码输出,构建一种基于深度学习的BiLSTM-CNN-CRFs网络模型,作为命名实体识别的学习算法。首先对文本的字训练词向量,将词向量输入到CNN层,得到窗口词组合特征,再进一步输入到LSTM层,LSTM选取分数最高的标签作为输出。但LSTM默认词之间是独立分布的,并未考虑相邻词之间的相关性及其约束性,对于序列标注任务,相邻词之间的标签相关性直接影响句子的最佳标签链,所以在输出层使用条件随机场(CRF)进行联合建模以解码标签序列。

1.1 词向量

自然语言理解的问题首先要转化成机器能够处理的问题,词向量[13](word Embedding)提供了一种将文本表达映射到低维向量空间的方法,词向量解决了传统稀疏表示的“词汇沟鸿”缺点,通过将词汇映射到一个新的低维空间,解决了维数灾难问题,并且可以挖掘到词汇之间的关联属性,提高向量语义的准确度。针对专业领域语料容易出现分词不准确,从而导致实体被错分出现无法识别的问题,本文不直接进行分词,采取训练字符级别的词向量方法,词向量形式如下:

${{{w}}_i} = \left[ {{v_0}\,\,\,\,{v_1}\,\,\,\,\cdots \,\,\,\,{v_n}} \right]$ (1)

式中: $n$ 为词向量维度。

1.2 CNN层

卷积神经网络(CNN)通常用于字符级信息建模等自然语言处理任务,本文使用CNN对输入字的词向量利用窗口滑动将当前字与前后汉字连接,计算前后字对当前字的影响,所生成的词表示词语特征。本文以“中国包装网讯”一词为例,其CNN层结构如图1所示。卷积完成后提取出字符与字符之间的上下文信息,生成词语和句子表示特征,再输入到下层神经网络中。

Download:
图 1 CNN层结构示意图 Fig. 1 CNN layer structure diagram
1.3 LSTM层与CRF层

LSTM是一种特殊的循环神经网络(RNN),一个LSTM单元是由一个cell和输入门(input)、输出门(output)、遗忘门(forget)组成。LSTM自提出后,很多研究人员针对LSTM做了一系列优化改进工作,现已被应用于自然语言处理领域的各个方面。LSTM的特性使得其只能获取到本单元之前的所有单元的信息,但是无法获取此单元后的所有单元信息,因此双向LSTM(bi-directional LSTM,BiLSTM)应运而生,其基本思想是将每个序列向前和向后呈现为两个单独的隐藏状态,分别捕获过去和未来的信息,然后将两个隐藏状态链接形成最终输出。BiLSTM相较于LSTM识别效果更好,故本文使用BiLSTM作为一层网络。由于BiLSTM仅对于标签之间的独立任务(如词性标注)识别效果较好,而命名实体识别标签则是互相关联的,故考虑在BiLSTM输出层加入CRF层以增加约束,进行联合解码标签序列。

假设一个序列“中国包装网讯”及其序列标注如表1所示。

表 1 词序列及其标注 Tab.1 Word sequence and its annotation

将以上词序列的词向量输入BiLSTM-CRFs网络,假设以上词序列的词向量为:

${{w}} = [{w_0}\,\,\,\,{w_1}\,\,\,\,{w_2}\,\,\,\,{w_3}\,\,\,\,{w_4}\,\,\,\,{w_5}]$ (2)

将式(2)作为BiLSTM-CRFs的输入,如图2所示。

Download:
图 2 BiLSTM-CRFs网络结构 Fig. 2 BiLSTM-CRFs network structure diagram

图2可知,BiLSTM输出每个字或词标签的分数,以 ${w_0}$ 为例,BiLSTM输出得分B-ORG(1.5)、I-ORG(0.8)、O(0.03),但是在BiLSTM预测过程中,如果出现句首I-ORG标签分数大于B-ORG的情况,此时BiLSTM会选择分数最高的I-ORG标注在句首,而CRF层的加入可以为最终的预测标签添加一些限制,防止这种非法标签的出现。在训练过程中,这些约束可以由CRF层从训练数据集中自动学习,从而得到句子的最佳序列标注。

1.4 基于深度学习的BiLSTM-CNN-CRFs网络模型

本文构建的用于领域命名实体识别的基于深度学习的BiLSTM-CNN-CRFs网络模型如图3所示。对于一个句子序列,将每个字的词向量输入到CNN网络中,并在使用时对词向量进行微调(fine tuning),采用CNN的窗口滑动功能得到词表示向量,然后将词表示向量与字的词向量馈送至BiLSTM网络中,学习到句子序列标签的最高得分(虚线表示引入Dropout层防止数据过拟合)。最后BiLSTM输出的向量再馈送至CRF层,CRF通过从训练语料中自学习得到约束,对BiLSTM中的输出向量进行联合标签解码。在卷积过程和BiLSTM预测过程中引入Dropout技术以防止过拟合现象。

Download:
图 3 基于深度学习的BiLSTM-CNN-CRFs网络模型 Fig. 3 BiLSTM-CNN-CRFs network model based on deep learning
2 反馈式K近邻语义迁移学习算法 2.1 问题描述

传统机器学习假设训练数据与测试数据满足数据同分布,然而现实中的大量数据并不满足这种同分布假设。随着深度学习的发展,对数据量的要求不断增大,现实中很难获取到如此大量的同分布数据集。在此背景下,迁移学习的提出,为数据量不足的问题提供了新的解决思路。迁移学习可以利用已有的数据迁移知识,用于帮助目标域中的学习问题。针对特定领域,虽然随着计算机的普及与发展已产生大量的非结构化文本,但这些语料并未标注,导致专业领域文本训练语料严重缺乏。而随着互联网行业与移动互联网的发展,互联网上产生了海量的通用领域新闻文本,且形成了成熟的标注语料库。而通用领域新闻文本与专业领域新闻文本同属新闻语料,彼此具有一定的相似性和数据同分布性,这为我们提供了解决特定领域文本严重不足的思路。

为了解决领域训练语料严重缺乏的现实,本文应用迁移学习方法从通用新闻语料中得到与专业领域语料语义正相关的数据以扩充领域语料集。应用迁移学习技术解决专业领域语料不足的问题,面临的主要挑战如下:1)如何表达通用新闻数据中的知识,以适配专业领域样本语义中的知识与分布,从而达到迁移目的;2)在解决1)中问题的基础上,如何衡量通用新闻语料与领域新闻语料的相似性;3)对于迁移的标准与质量应该如何度量,何时达到迁移阈值,停止迁移,防止“负迁移”出现。

针对上述挑战,本文提出一种反馈式K近邻语义迁移学习(feedback K-Nearest-neighbor semantic transfer learning,F-KNST)算法,并采用BiLSTM-CNN-CRFs深度学习网络模型,对领域实体进行识别,其流程如图4所示。针对1),本文选用文档向量(Doc2Vec)衡量通用新闻语料与领域语料的语义差异性。Doc2Vec[14]是由Quoc Le 和Tomas Mikolov在Word2Vec的基础上提出的,文档向量充分利用了词向量和段落向量(paragraphs vectors),可以很好地预测文档之间的语义相似性。针对2),本文提出一种使用马哈拉诺比斯距离[15](马氏距离)的语义距离度量方法。传统欧氏距离存在无法结合先验知识、同等看待样本等局限性,在实际应用中常无法满足需求。马氏距离是由印度统计学家马哈拉诺比斯提出的,表示数据的协方差距离,它是一种有效的计算2个未知样本集的相似度的方法,其协方差特性不仅可以结合数据的统计特性,还能兼顾到样本的相关性。杨绪兵等[16]已经通过证明和相关实验验证了马氏距离相对于欧氏距离的优越性。针对3),提出F-KNST算法,从1)和2)中得到通用新闻语料与领域语料的语义向量距离作为迁移标准,从通用新闻语料中获取K个与每篇特定领域语料最相近的文本,从而达到扩充领域语料集的目的。将扩充的语料集送入1.4节所述网络模型中进行实体识别,由实体识别结果作为反馈不断修正K值,从而实现最佳迁移标准与质量。

Download:
图 4 反馈式K近邻语义迁移学习的领域命名实体识别流程 Fig. 4 F-KNST domain named entity recognition flowchart
2.2 F-KNST算法实现

通用新闻数据集(以下称源域)中存在许多可以迁移到特定领域新闻数据集(以下称目标域)的知识。由于目标域除了行业名词之外,与源域数据格式、报道措辞均相差不大,数据分布基本满足独立同分布。因此,从源域中获取与目标域中语义相近的新闻语料以填充目标域可以更加丰富目标域中数据分布特点,扩充目标域中语义特征,使目标域在后续预训练和训练过程中获取到足够的语义信息及类实体特征。

1)马氏距离定义

设随机向量xRn,来自分布X(X $\subseteq $ Rn),ERnΣRn×n分别表示 ${X}$ 的期望和协方差, ${\left\{ {{x_i}} \right\}_1}^n$ ${x}$ 的一组观测值,并且满足独立同分布条件。

定义1 设 ${{x}}$ 为空间Rn的一个 $n$ 维向量,Σ是分布X的协方差,则称

${\left\| {{x}} \right\|_M} = \sqrt {{{{x}}^{\rm{T}}}{{{\varSigma}} ^{ - 1}}{{x}}} $ (3)

为此分布下 ${x}$ $M$ 范数。

定义2 在M范数定义下,若 $\forall {x},{y} \in {{\bf{R}}^{{d}}}$ ,则马氏距离定义为:

${{d}}(x,y) = \sqrt {(x - y){\Sigma ^{ - 1}}(x - y)} $ (4)

2)F-KNST算法描述

输入 源域数据集 ${{{X}}_s}$ ,目标域数据集 ${{{X}}_t}$ ,样本近邻数 $k$

输出 目标域数据扩展集 ${{{y}}_{\rm{ext}}}$

1)输入源域数据集 ${{{X}}_s}$ ,目标域数据集 ${{{X}}_t}$

2)对 ${{{X}}_s}$ ${{{X}}_t}$ 分别训练文档向量。得到源域向量集 ${{D}}{(s)_m}$ ${{D}}{(s)_m} = \{ d({s_1}),d({s_2}), \cdots ,d({s_m})\} $ ,目标域向量集 ${{D}}{(t)_n}$ ${{D}}{(t)_n} = \{ d({t_1}),d({t_2}), \cdots ,d({t_n})\} $

3)初始化 $k$ 值;

4) ${{d}}({t_i}) \in {{D}}{(t)_n}$ ,从 ${{D}}{(t)_n}$ 中获取目标域样本文档向量 ${{d}}({t_i})$

5) ${{d}}({s_j}) \in {{D}}{(s)_m}$ ,从 ${{D}}{(s)_m}$ 中获取源域样本文档向量 ${{d}}({s_j})$

6)使用式(4)计算样本语义相似度距离 ${\rm{Dist}}(d({t_i}),d({s_j}))$ ;针对每个目标域样本 $j$ ,从源域提取 $k$ 个最相关的源域样本,加入到目标域数据扩展集 ${{{y}}_{ext}}$

7)对 ${{{y}}_{ext}}$ 中样本进行预处理,预训练,送入BiLSTM+CNN+CRFs网络模型中训练,得到实体识别结果;

8)更新 $k$ 值,重复执行4)~7),返回N组实体识别结果;

9)根据实体识别反馈的结果,选择识别结果最好的 $\tilde k$ 值,当 $k$ = $\tilde k$ 时,即为最佳迁移样本数;

10)输出 $k$ = $\tilde k$ 时的目标域数据扩展集 ${{{y}}_{\rm{ext}}}$

3 实验与分析

为验证本文所提出算法的有效性,本文分别以包装领域和医疗领域为例进行命名实体识别实验。

3.1 包装领域命名实体识别 3.1.1 数据准备

中国包装网作为我国最大的包装行业专业网站,包含了大量的包装领域文本。本文从中国包装网[17]上获取包装行业新闻作为实验数据构成迁移学习目标域样本,共计500篇。为保证源域与目标域的样本分布,本文选取搜狗实验室[18]的全网新闻语料,通过xml解析并去除Html标签后得到共计3.8 GB约120万篇新闻,作为源域数据集。为更好的完成包装领域命名实体识别任务,获取了包装领域专家完成的包装领域产业分类体系结构,确定了如表2所示6类实体类别。

表 2 包装实体类别及其含义 Tab.2 Packaging entity categories and their meanings

由于包装语料中包含大量的包装专业名词,如“瓦楞纸板”、“静电复印纸”等,故对包装语料进行分词容易导致实体被错分,从而导致无法识别命名实体。所以本文选择字标注方法对包装语料进行标注,采用BIO标注法,其中B表示实体的开头,I表示实体的剩余部分,O表示非实体序列。具体实体类别及其标注方法如表3所示。

表 3 实体标注方法 Tab.3 Entity labeling method

在确定包装领域实体类别及其标注方法后,本文采用人工标注与CRF相结合的迭代修正方式对包装语料进行标注。首先人工标注50篇文章,然后将其送入CRF中进行训练,得到实体识别模型,并预测50篇未标注文档,再使用人工方法对CRF模型标注错误的数据进行修正,得到100篇标注文本。再将100篇未标注文档送入CRF中进行训练识别,如此反复。随着语料的增加,CRF的拟合结果越来越好,人工修改的工作量逐渐减少,最终迭代完成后形成500篇质量较高的标注语料。

3.1.2 实验设计及参数设置

本文实验使用TensorFlow框架编写BiLSTM-CNN-CRFs网络模型,软硬件环境如表4所示。

表 4 实验软硬件环境 Tab.4 Experimental software and hardware environment

本文使用Doc2Vec计算源域与目标域的文档向量,并且使用Word2vec对目标域扩展集预训练词向量,F-KNST算法中初始值K=100,以100为步长分别获取7组数据构成7个目标域扩展集。设计的实验参数如表5表6所示。

表 5 Doc2Vec参数表 Tab.5 Doc2Vec parameter list
表 6 Word2Vec参数表 Tab.6 Word2Vec parameter list

基于深度学习的BiLSTM+CNN+CRFs网络模型参数如表7所示。

表 7 BiLSTM-CNN-CRFs模型参数表 Tab.7 BiLSTM-CNN-CRFS model parameter table
3.1.3 实验结果与分析

评价指标采用准确率、召回率和F值。这3个指标广泛用于信息检索和统计学分类领域,用于评估结果质量。准确率、召回率和F值定义如下:

$\left\{ \begin{array}{l} {{P}} = \dfrac{{\rm{TP}}}{({\rm{TP+FP}})} \times 100{\text{% }} \\ {{R}} = \dfrac{{\rm{TP}}}{({\rm{TP+FN}})} \times 100{\text{% }}\\ {{F}} = \dfrac{{2 \times {\rm{P}} \times {\rm{R}}}}{{{\rm{P}} + {\rm{R}}}} \end{array} \right.$ (5)

式中:TP(true positive)表示正类且被预测为正类的数目;FP(false positive)表示负类且被预测为正类的数目;FN(false negative)表示正类被预测为负数的数目。

本文将包装标注语料按照6:2:2的比例切分为训练集、验证集和测试集,分别使用LSTM-CRF模型、BiLSTM-CRF模型和BiLSTM-CNN-CRFs模型对迁移和非迁移方法进行对比实验。

1)反馈值K的选取实验

分别使用LSTM-CRF、BiLSTM-CRF和BiLSTM-CNN-CRFs 3组模型进行语义迁移学习,识别包装领域实体,所获得的识别效果随K值的变化情况如表8所示。

表 8 识别结果随K值的变化情况 Tab.8 The experimental results changed with K

各模型识别结果如图5~图7所示。

Download:
图 5 BiLSTM-CNN-CRFs识别结果 Fig. 5 BiLSTM-CNN-CRFs results
Download:
图 6 LSTM-CRF识别结果 Fig. 6 LSTM-CRF results
Download:
图 7 BiLSTM-CRF识别结果 Fig. 7 BiLSTM-CRF results

实验结果表明,3组模型的PRF值,均先随着K值的增大呈上升趋势,当达到某一特定值时反而呈下降趋势,LSTM-CRF和BiLSTM-CRF模型在K=400时F值达到最大,而BiLSTM-CNN-CRFs模型在K=500时F值达到最大。证明了随着迁移语义知识的增加,提高了模型的识别率。但随着领域新闻数据与通用新闻数据样本语义距离的增大,准确率、召回率和F值反而开始下降。这是由于随着语义距离的增大,通用新闻数据与领域新闻数据语义相关性降低,此时引入的样本多为“噪声”,开始产生“负迁移”现象,应停止迁移,选用得到最佳识别结果的K值作为最佳迁移阈值。因此,接下来反馈值K分别取400和500进行对比实验。

2)对比实验与分析

LSTM-CRF、BiLSTM-CRF和BiLSTM-CNN-CRFs三种模型下迁移前后对比实验结果如表9所示。

表 9 3种网络模型迁移前后实验结果 Tab.9 Experimental results before and after transfer of three network models

结果表明,3种模型采用F-KNST算法迁移后的PRF值均比迁移前提升很多,F值分别提升23.1%、22.4%和32.7%,BiLSTM-CNN-CRFs模型相比其他2种模型的PRF值亦有较大提升,迁移前的F值分别提升8.4%、4.7%,采用F-KNST算法迁移后的F值分别提升16.9%、13.5%,亦有效证明了本文构建的用于领域命名实体识别的BiLSTM-CNN-CRFs深度学习网络模型相较于其他模型的优越性。

3.2 医疗领域命名实体识别 3.2.1 数据准备

本文采用CCKS 2017[19]任务二提供的电子病历命名实体识别语料作为迁移学习目标域样本,共计1 200篇。

CCKS 2017任务二的电子病历语料数据集来源于真实电子病历经脱敏处理后形成的标注数据,电子病历按照数据组织不同分为:一般项目、病史特征、诊疗过程、出院情况。该数据集已经详细标注了实体名称、实体起始终止位置与实体所属类别等。CCKS的电子病历语料规定的抽取实体如表10所示5类实体类别。

表 10 医疗实体类别及其含义 Tab.10 Medical entity categories and their meanings

为了保证迁移学习的质量,本文编写网络爬虫分别从医疗资讯网[20]、好医生在线[21]等医疗在线网站获取医疗健康咨询数据,通过网页去重、xml解析和Html标签去除后得到共计100万篇作为源域数据集。

本文在进行医疗实体识别时同样采用字标注方法对医疗实体进行标注,采用BIO标注法,具体实体类别与标注编码如表11所示。

表 11 医疗实体标注方法 Tab.11 Medical entity labeling method
3.2.2 实验设计及参数设置

本文实验使用TensorFlow框架编写深度学习网络模型。为验证反馈K近邻迁移学习算法的有效性,本文保证实验中其他因素的一致性,故实验环境、Doc2Vec参数、Word2Vec参数与模型参数表均与3.1.2节中参数保持一致。设置F-KNST算法中初始值K=100,以100为步长分别获取7组数据构成7组目标域扩展集。

3.2.3 实验结果与分析

本实验评价指标与3.1.3中(5)式完全一致。本实验采用CCKS的标准测试集进行实验结果测试,验证集按照8:2的比例从训练集中切分得到。分别使用LSTM-CRF模型、BiLSTM-CRF模型和BiLSTM-CNN-CRFs模型对迁移和非迁移方法进行对比实验。

1)反馈值K的选取实验

由以上的实验设置通过3组模型进行语义迁移学习,最终所获得的识别效果随K值变化情况如表12所示。

表 12 识别结果随K值变化情况 Tab.12 The experimental results changed with K

3组模型识别结果变化折线图分别如图8~图10所示。

Download:
图 8 BiLSTM-CNN-CRFs识别结果 Fig. 8 BiLSTM-CNN-CRFs results
Download:
图 9 LSTM-CRF识别结果 Fig. 9 LSTM-CRF results
Download:
图 10 BiLSTM-CRF识别结果 Fig. 10 BiLSTM-CRF results

实验结果表明,3组模型的PRF值,同样呈现出先上升后下降的趋势,3组模型均在K=500时F值达到最大。证明了随着迁移语义知识的增加,提高了模型的识别率。接下来取最佳阈值K=500的识别结果进行对比试验。

结果表明,在不同数据集上K值的选择是由该数据集上的实验结果反馈决定。本实验最优结果在K=400时达到稳定。而实验一中的包装实体识别在K=500时达到最优结果。如表13所示医疗领域语料采用F-KNST算法迁移后的PRF值同样有效果提升,F值分别提升4.96%、3.15%和2.57%,通过医疗领域的命名实体识别实验,亦有效证明了本文构建的用于领域命名实体识别的BiLSTM-CNN-CRFs深度学习网络模型相较于其他模型的优越性。

表 13 3种网络模型迁移前后实验结果 Tab.13 Experimental results before and after transfer of three network models
4 结束语

本文针对专业领域语料匮乏的特点,构建基于深度学习的BiLSTM-CNN-CRFs网络模型,以包装领域和医疗领域为例,提出了一种基于反馈式K近邻语义迁移学习的命名实体识别方法。本文方法不仅避免了传统机器学习无法学习到长距离依赖等缺点,而且很好地解决了专业领域的命名实体识别问题,有较强的通用性。实验结果表明,本文提出的F-KNST算法和BiLSTM-CNN-CRFs网络模型可以很好的提取语义信息,扩充专业领域语料集,提高专业领域命名实体识别的准确率。

本文仍存在以下不足之处:1)Doc2Vec能够提取的语义信息比较有限,对于文本实体分布信息等并没有进一步挖掘;2)包装领域语料为多人协作标注,由于对包装实体有着不同的理解,导致部分实体标注标准不尽相同,影响识别率。接下来将对以上缺点开展进一步的研究,以进一步提高专业领域命名实体识别的效果。

参考文献
[1] SOCHER R, HUVAL B, MANNING C D, et al. Semantic compositionality through recursive matrix-vector spaces[C]//Proceedings of 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. Jeju Island, Korea: ACM, 2012: 1201-1211. (0)
[2] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735-1780. DOI:10.1162/neco.1997.9.8.1735 (0)
[3] COLLOBERT R, WESTON J, BOTTOU L, et al. Natural language processing (almost) from scratch[J]. Journal of machine learning research, 2011, 12: 2493-2537. (0)
[4] 张海楠, 伍大勇, 刘悦, 等. 基于深度神经网络的中文命名实体识别[J]. 中文信息学报, 2017, 31(4): 28-35.
ZHANG Hainan, WU Dayong, LIU Yue, et al. Chinese named entity recognition based on deep neural network[J]. Journal of Chinese information processing, 2017, 31(4): 28-35. DOI:10.3969/j.issn.1003-0077.2017.04.005 (0)
[5] MA Xuezhe, HOVY E. End-to-end sequence labeling via Bi-directional LSTM-CNNs-CRF[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL) 2016. Berlin, Germany: ACL, 2016: 1064-1074. (0)
[6] CHIU J P C, NICHOLS E. Named entity recognition with bidirectional LSTM-CNNs[J].Computer science, 2016: 357-370. (0)
[7] 姚霖, 刘轶, 李鑫鑫, 等. 词边界字向量的中文命名实体识别[J]. 智能系统学报, 2017, 11(1): 37-42.
YAO Lin, LIU Yi, LI Xinxin, et al. Chinese named entity recognition via word boundary based character embedding[J]. CAAI transactions on intelligent systems, 2017, 11(1): 37-42. (0)
[8] PAN S J, YANG Qiang. A survey on transfer learning[J]. IEEE transactions on knowledge and data engineering, 2010, 22(10): 1345-1359. DOI:10.1109/TKDE.2009.191 (0)
[9] PAN S J, TSANG I W, KWOK J T, et al. Domain adaptation via transfer component analysis[J]. IEEE transactions on neural networks, 2011, 22(2): 199-210. DOI:10.1109/TNN.2010.2091281 (0)
[10] LONG Mingsheng, WANG Jianmin, DING Guiguang, et al. Transfer feature learning with joint distribution adaptation[C]//Proceedings of 2013 IEEE International Conference on Computer Vision. Sydney, NSW: IEEE, 2013: 2200-2207. (0)
[11] 卞则康, 王士同. 基于相似度学习的多源迁移算法[J]. 控制与决策, 2017, 32(11): 1941-1948.
BIAN Zekang, WANG Shitong. Similarity-learning based multi-source transfer learning algorithm[J]. Control and decision, 2017, 32(11): 1941-1948. (0)
[12] 庄福振, 罗平, 何清, 等. 迁移学习研究进展[J]. 软件学报, 2015, 26(1): 26-39.
ZHUANG Fuzhen, LUO Ping, HE Qing, et al. Survey on transfer learning research[J]. Journal of software, 2015, 26(1): 26-39. (0)
[13] MIKOLOV T, CHEN K, CORRADO G, etal. Efficient estimation of word representations in space [J]. Computer science, 2013: 1-12. (0)
[14] LE Q V, MIKOLOV T. Distributed representations of sentences and documents[C]//Proceedings of the 31st International Conference on International Conference on Machine Learning. Beijing, China, 2014: II-1188-II-1196. (0)
[15] MAHALANOBIS P C. On the generalized distance in statistics[J]. Proceedings of national institute of sciences, 1936, 2(1): 49-55. (0)
[16] 杨绪兵, 王一雄, 陈斌. 马氏度量学习中的几个关键问题研究及几何解释[J]. 南京大学学报(自然科学), 2013, 49(2): 133-141.
YANG Xubing, WANG Yixiong, CHEN Bin. Research on several key problems of Mahalanobis metric learning and corresponding geometrical interpretaions[J]. Journal of Nanjing University (natural sciences), 2013, 49(2): 133-141. (0)
[17] 中国包装新闻数据. 中国包装网[EB/OL]. (2017.12)[2017.12.25]. http://news.pack.cn/
China Packaging Network. Chinese packaging news data[EB/OL]. (2017-12). [2017.12.25]. http://news.pack.cn/. (0)
[18] 搜狐新闻数据. 搜狗实验室[EB/OL]. (2012.08.16)[2017.12.20]. http://www.sogou.com/labs/resource/cs.php.
Sougou Labs. The whole network news data set[EB/OL]. (2012.08.16) [2017.12.20]. http://www.sogou.com/labs/resource/ca.php. (0)
[19] 电子病历命名实体识别数据集. 全国知识图谱与语义计算大会[EB/OL]. (2017.05.20)[2017.12.20]. http://www.ccks2018.cn/?page_id=16
Clinical named entity recognition dataSet. China conference on knowledge graph and semantic computing[EB/OL]. (2017.05.20)[2017.12.20]. http://www.ccks2018.cn/en/) (0)
[20] 医疗资讯网. 医疗新闻数据[EB/OL]. (2013.01.01)[2017.12.20]. http://www.120news.org/.
Medical information network. medical news data[EB/OL]. (2013.01.01)[2017.12.20]. http://www.120news.org/. (0)
[21] 好大夫在线. 医疗新闻数据[EB/OL]. (2006.01.01)[2017.12.20]. https://www.haodf.com/article/.
Good doctor online. Medical news data[EB/OL]. (2006.01.01)[2017.12.20]. https://www.haodf.com/article/. (0)