自动化学报  2018, Vol. 44 Issue (5): 811-818   PDF    
融合对抗学习的因果关系抽取
冯冲1,2, 康丽琪1,2, 石戈1,2, 黄河燕1,2     
1. 北京理工大学计算机学院 北京 100081;
2. 北京理工大学自然语言处理实验室 北京 100081
摘要: 因果关系抽取在事件预测、情景生成、问答以及文本蕴涵等任务上都有重要的应用价值.但多数现有的因果关系抽取方法都需要人工定义模式和约束,且严重依赖知识库.为此,本文利用生成式对抗网络(Generative adversarial networks,GAN)的对抗学习特性,将带注意力机制的双向门控循环单元神经网络(Bidirectional gated recurrent units networks,BGRU)与对抗学习相融合,通过重定义生成模型和判别模型,基本的因果关系抽取网络能够与判别网络形成对抗,进而从因果关系解释信息中获得高区分度的特征.实验结果表明,与当前用于因果关系抽取的方法相比较,该方法表现出更优的抽取效果.
关键词: 因果关系抽取     生成式对抗网络     注意力机制     对抗学习    
Causality Extraction With GAN
FENG Chong1,2, KANG Li-Qi1,2, SHI Ge1,2, HUANG He-Yan1,2     
1. School of Computer Science and Technology, Beijing Institute of Technology, Beijing 100081;
2. Natural LanguageProcessing Laboratory, Beijing Institute of Technology, Beijing 100081
Manuscript received : August 31, 2017, accepted: January 8, 2018.
Author brief: KANG Li-Qi  Master student at the College of Computer Science and Technology, Beijing Institute of Technology. Her research interest covers information extraction, relation extraction;
SHI Ge  Ph. D. candidate at the College of Computer Science and Technology, Beijing Institute of Technology. His research interest covers information extraction, event extraction;
HUANG He-Yan  Professor at the College of Computer Science and Technology, Beijing Institute of Technology. She received her Ph. D. degree from the Institute of Computing Technology, Chinese Academy of Sciences. Her research interest covers natural language processing, machine translation, social network, information retrieval, and intelligent processing system
Corresponding author. FENG Chong  Associate professor at the College of Computer Science and Technology, Beijing Institute of Technology. He received his Ph. D. degree from the Department of Computer Science, University of Science and Technology of China in 2005. His research interest covers natural language processing, information extraction, and machine translation. Corresponding author of this paper
Recommended by Associate Editor LI Li
Abstract: Causality extraction is of important practical value in tasks such as event prediction, scenario generation, question answering, and textual implication; but most of the existing causality extraction methods require artificial definition of patterns and constraints and are heavily dependent on knowledge base. In this paper, the bidirectional gated recurrent units networks (BGRU) with attention mechanism are merged with confrontational learning by leveraging the confrontational learning characteristics of generative adversarial networks (GAN). Through redefining the generator and discriminator, the basic causality extraction network can construct a confrontation with the discriminator, and then obtain a high distinguishing feature from the causality interpretation information. Our experiments show that our approach leads to an improved performance over strong baselines.
Key words: Causality extraction     generative adversarial network (GAN)     attention mechanism     adversarial learning    

因果关系是"原因"和"结果"之间的关系, 是引起和被引起的关系.因果关系作为一种重要的关系类型, 在许多任务(例如事件预测[1]、情景生成[2]、问答[3]、文本蕴涵等)中起着重要作用.自然语言文本中存在大量的因果关系.例如, 新闻文本中经常报道事故及其造成的后果: The $\langle$e1$\rangle$ arrest$\langle$/e1$\rangle$ has caused an $\langle$e2$\rangle$ outcry$\langle$/e2$\rangle$ of indignation among some industrial and political circles in France.该例包含了arrest (逮捕)和outcry (强烈抗议)之间的因果关系.其中, $\langle$e1$\rangle$$\langle$/e1$\rangle$$\langle$e2$\rangle$$\langle$/e2$\rangle$是用来标识两个实体名词性词的位置指示标签[4].

因果关系的抽取方法主要分为两类:基于模式匹配的方法和基于机器学习的方法.基于模式匹配的方法包括词典语法模式、语义关系模式等.基于机器学习的方法包括支持向量机(Support vector machine, SVM)、决策树(Decision tree)等.这些方法主要依赖特征工程, 但是特征工程涵盖了繁琐的特征选择和不准确的特征提取, 计算开销大且存在错误传播的问题.以往的方法利用WordNet、NomLex-Plus以及VerbNet等知识库抽取特征, 对知识库依赖性强.

为避免特征工程的一系列问题, 本文在因果关系抽取任务上探索新的方法.自2014年以来, Goodfellow等[5]提出的生成式对抗网络(Generative adversarial networks, GAN)在生成式任务上取得巨大进展. GAN在结构上受到博弈论的启发, 系统由一个生成模型和一个判别模型构成, 如图 1所示.生成模型捕捉真实数据样本的潜在分布, 并生成新的数据样本; 判别模型是一个二分类器, 判别输入是真实数据还是生成的样本.判别模型的存在使得GAN中的生成模型能够学习去逼近真实数据, 最终让其生成的数据达到以假乱真的地步.与传统基于模式匹配和机器学习的抽取方法相比, GAN能够利用生成模型和判别模型之间的对抗, 获取逼近训练目标的生成模型.

图 1 GAN结构 Figure 1 The structure of GAN

针对已有因果关系抽取方法在特征工程中存在的问题, 本文提出了一个包含因果关系解释信息的对抗学习框架, 分别将原始语句和包含因果关系解释信息的语句输入到基本模型和因果关系增强模型, 利用两个相同结构的神经网络模型进行因果关系分类.通过基本模型与判别模型的对抗训练, 基本模型能模仿和学习因果关系增强模型生成的特征向量, 进而捕获模型间共同特征, 提升因果关系抽取效果.

本文的主要贡献包括: 1)提出一种融合对抗学习的因果关系抽取方法, 避免因采用特征工程而引起的一系列问题; 2)针对因果关系抽取任务的特点, 提出"因果关系解释语句"的概念, 尝试将句子级别的信息作为关系抽取的先验知识.通过糅合原句和因果关系解释语句, 借助生成对抗网络的对抗学习方法, 得到更加有效的因果关系抽取模型; 3)为了让因果关系解释信息发挥更大的效用, 提出在融合对抗学习的基础上加入注意力机制, 充分发挥关键信息在最终分类中的作用.

本文内容安排如下:第1节介绍相关工作; 第2节给出模型的具体架构; 第3节进行实验分析; 第4节总结全文.

1 相关工作概述 1.1 因果关系抽取

因果关系是关系类型中的一种, 对预测未来事件有重要作用. Radinsky等[1]通过从大型新闻语料库中提取因果关系, 预测未来事件; Hashimoto等[2]提出了一种从网络中提取因果关系的监督方法, 产生未来情景.因果关系在问答系统的研究中也有重要地位, Oh等[4]等针对问答系统中询问原因的一类问题, 探究词或子句之间的因果关系.因果关系抽取是关系抽取中备受关注的一部分.以往的方法多采用基于模式匹配或机器学习的方法, 利用词典语法模式[6]、上下文中的单词[4]、单词之间的关联关系[7]以及谓词和名词的语义[8]进行因果关系抽取.相对于因果关系抽取, 关系抽取是一个更加广泛的概念, 通常关注的是多种关系类型的总体抽取效果, 没有针对因果关系类型进行深入研究.

多年来, 关系抽取任务中的方法层出不穷. Rink和Harabagiu[9]利用外部语料库生成特征, 在SVM分类器上进行研究. Zeng等[10]提出用卷积神经网络(Convolutional neural networks, CNN)进行关系抽取, 采用词汇向量和词的位置向量作为卷积神经网络的输入, 通过卷积层、池化层和非线性层得到句子表示.实体的位置向量和其他相关的词汇特征使得句子中的实体信息能够被较好地考虑到关系抽取中.但是由于CNN不适合学习长距离的语义信息[11], 所以很多学者尝试在循环神经网络(Recurrent neural networks, RNN)上进行关系抽取. Zhang和Wang[12]使用双向循环神经网络抽取文本中的关系, 虽然该模型能利用上下文信息, 但是上下文的范围受限于梯度消散问题.为此, Zhang等[13]提出双向长短期记忆网络(Bidirectional long short-term memory networks, BLSTM), 该模型利用自然语言处理工具和词汇资源来获取特征, 利用LSTM单元实现了较为理想的结果. Zhou等[14]提出了基于注意力机制的双向长短期记忆网络(Bidirectional long short-term memory networks, BLSTM), 该模型仅将带有实体位置指示词的SemEval-2010-Task8数据集作为输入, 不依赖任何词汇资源或自然语言处理系统, 简化了关系抽取的过程, 并且取得了可观的结果.因果关系抽取任务关注的是长序列中两个实体名词性词之间的关系.考虑到上下文信息以及训练速度, 本文采用构造更简单且训练更快的BGRU[15]网络.

1.2 生成式对抗网络

自从2014年Goodfellow等[5]提出GAN以来, GAN在图像领域和自然语言处理领域展现了极大潜力.在自然语言处理领域, GAN的应用主要体现在文本生成任务上. Zhang等[16]以LSTM作为GAN的生成模型进行文本的生成. Yu等[17]将序列生成过程当作一个序列决策的过程, 将误差作为一种增强学习的奖励, 以一种前馈的方式训练, 并采用增强学习的探索模式更新生成模型. Li等[18]利用对抗性训练进行开放式对话生成, 将对话生成任务看作强化学习的问题, 联合训练生成模型和判别模型.虽然GAN被应用到了诸多领域, 但在我们掌握的文献范围内本文是第一个将其应用于因果关系抽取任务的尝试与研究.

GAN从出现以来就存在训练困难、生成样本缺乏多样性等问题.近日, Facebook人工智能研究中心(Facebook Artificial Intelligence Research Center, FAIR)提出Wasserstein GAN (WGAN)[19], 引入Wasserstein距离, 既解决了训练不稳定的问题, 也提供了一个可靠的训练进程指标.而WGAN仍旧存在训练困难和收敛速度慢等问题.因此, Gulrajani等[20]提出了相应的改进方案, 修改了原设计中Lipschitz的施加方式, 将权重剪裁(Weight clipping)改为梯度惩罚(Gradient penalty).实验表明WGAN-GP能够显著提高训练速度, 解决了原始WGAN收敛缓慢的问题.鉴于WGAN-GP的明显优势, 本文采用WGAN-GP的训练方法.

2 模型 2.1 模型架构

针对因果关系抽取任务, 引入外部资源解释补充因果关系有助于提升模型在因果关系分类上的效果.通过利用WGAN-GP能够让两个数据分布靠近的特性, 本文尝试在另一数据分布中引入外部资源, 使得关系分类模型能够在对抗学习中学习到外部资源提供的高区分度的分类特征, 从而提高关系分类效果.

在本文提出的模型中, 两个数据分布均为通过BGRU抽取后得到的特征向量表示.由于因果关系解释语句能提供更有区分度的特征, 因而在本文的方法中, 除了需要与GAN判别模型对抗的关系分类模型(基本模型), 还需设计一个包含因果关系解释信息的增强模型(因果关系增强模型).因果关系增强模型相当于人工注释器, 为每个输入的句子添加关系解释语句, 使得句子的分类特征更加明显.因果关系增强模型拥有和基本模型相同的网络结构, 经过对其输入的额外处理, 该模型得到的特征向量会包含更多利于分类的信息.基本模型会向因果关系增强模型学习句子的特征向量表示, 尤其是特征向量中具有高区分度的部分, 使得两个模型抽取的潜在特征尽可能地接近, 从而获得更好的分类结果.

该学习过程由基本模型与判别模型通过对抗的方式推动进行.在对抗学习中, 判别模型试图增大基本模型与因果关系增强模型所得特征向量的差异, 而基本模型希望两个模型得到的特征向量越来越接近.最终, 在优化基本模型和判别模型的过程中, 两个数据分布会逐渐靠近, 即基本模型的特征向量会尽量趋近于关系增强模型的特征向量, 使最终分类器的关系抽取结果得到提升.本文模型的整体架构见图 2.

图 2 模型整体架构 Figure 2 The overall architecture of the model
2.1.1 关系抽取网络

关系抽取网络由基本模型、因果关系增强模型以及分类器组成.基本模型的输入是带有实体名词性词标签的句子, 因果关系增强模型的输入要在此基础上加入因果关系解释语句.因果关系解释语句是依据因果关系的相关定义及解释, 预先准备的多种解释语句模板.使用模板时需要依据原句将两个实体名词性词填充其中, 从而显式表达出原句的因果关系.在因果关系增强模型的输入部分, 针对每条待抽取关系的句子, 每次随机选择一个解释说明语句加入到原句之后, 组成新的句子.例如:

原句: The $\langle$e1$\rangle$ arrest $\langle$/e1$\rangle$ has caused an $\langle$e2$\rangle$ outcry $\langle$/e2$\rangle$ of indignation among some industrial and political circles in France.

因果关系解释语句: Arrest makes outcry take place.

新句: The $\langle$e1$\rangle$ arrest $\langle$/e1$\rangle$ has caused an $\langle$e2$\rangle$ outcry $\langle$/e2$\rangle$ of indignation among some industrial and political circles in France. Arrest makes outcry take place.

关系: Cause-Effect (e1, e2).

根据关系的方向性, 因果关系类型又可以分为Cause-Effect (e1, e2)和Cause-Effect (e2, e1)两种, 括号内前者为原因, 后者为结果.本文的因果关系抽取网络中能够同时对关系及其方向性作出判断.

基本模型和因果关系增强模型均采用双向门控循环单元神经网络, 整个关系抽取网络的架构见图 3.网络由输入层、词向量层、BGRU层、注意力层以及输出分类层构成.其中, 最后一层分类层被两个模型共享, 又称分类器.输入层将句子转化成单词序列输入到网络中.词向量层利用预训练的词向量, 把每个单词转化成对应的词向量, 句子中的实体名词性词位置标签同样作为单词转为词向量.对于BGRU层, 一方面, GRU是LSTM的一个变种, 与LSTM一样能够缓解梯度消散的问题, 同时能够提高训练速度; 另一方面, BGRU包括两个GRU的子网络, 能够获取序列中上下文的信息.所以通过该层的处理, 网络可以得到更高层次的特征.

图 3 带注意力机制的双向门控循环单元神经网络 Figure 3 Bidirectional GRU model with attention

鉴于注意力机制在序列学习任务上具有巨大的提升作用, 本文在模型中加入注意力机制.注意力层使得对句子分类的注意力更加集中在对因果关系分类有决定性作用的词上.为解释注意力层的处理过程, 用$H$表示包含BGRU层输出向量[${{\pmb h}_1}$, ${{\pmb h}_2}$, $\cdots$, ${{\pmb h}_T}$]的矩阵, 其中$T$表示句子长度.经注意力层得到的句子表示${\pmb r}$由这些输出向量的加权和得到.

$ M = {\rm tanh}(H) $ (1)
$ {\pmb \alpha} = {\rm softmax}({\pmb w}^{\rm T}M) $ (2)
$ {\pmb r} = H{\pmb \alpha}^{\rm T} $ (3)

其中, $H\in {\bf R}^{d^w\times { T}}$, $d^w$是词向量的维度, ${\pmb w}$是训练好的向量, ${\pmb w}^{\rm T}$${\pmb w}$的转置.在本文模型中, 基本模型与因果关系增强模型得到的特征向量为

$ {\pmb h^*} = {\rm tanh}({\pmb r}) $ (4)

最后, 两个网络都通过softmax层给句子输出一个分类.

2.1.2 判别模型

判别模型是GAN中最重要的构成之一, 与生成模型一同完成GAN的竞争对抗.针对因果关系抽取任务, 本文的判别模型被建模为多层感知机(Multi-layer perceptron, MLP), 由4个全连接层组成.判别模型近似拟合基本模型与因果关系增强模型所得特征向量之间的EM (Earth mover)距离.

2.2 训练过程

采用GAN最新的训练方案WGAN-GP, 根据判别模型的输入后向计算出权重梯度, 并针对梯度的范数进行惩罚, 从而解决原始GAN以及WGAN存在的训练缺陷.

为了更清楚地说明训练过程, 用$\theta_B$$\theta_R$分别表示基本模型和因果关系增强模型的参数, 用$\theta_C$表示分类器的参数, 用$\theta_D$表示判别模型的参数.设定输入句子为$x_b$, 添加关系解释语句后的句子为$x_r$, 正确标签为$y$.将基本模型得到的特征向量表示为${{\pmb V}_B}$, 因果关系增强模型得到的特征向量表示为${{\pmb V}_R}$.

在对抗训练开始之前, 预训练基本模型和因果关系增强模型.对于基本模型的预训练, 训练目标是利用基本模型将句子中两个名词性词之间的关系正确分类, 即最小化交叉熵损失.

$ \begin{align} &Obj^{B, C}(\theta_B, \theta_C) =\notag\\ &\qquad {\rm E}_{(x_b, y)\sim {\rm data}}\left[ J(C(H_B(x_b;\theta_B);\theta_C), y)\right] \end{align} $ (5)

其中, $J(C(H_B(x_b;\theta_B);\theta_C), y)$表示基本模型特征向量通过分类器得到分类标签和真实标签$y$的交叉熵损失.

对于因果关系增强模型的参数, 类似于基本模型, 也通过最小化交叉熵损失进行学习.

$ Obj^R(\theta_R) = {\rm E}_{(x_r, y)\sim {\rm data}}\left[ J(C(H_R(x_r;\theta_R)), y)\right] $ (6)

预训练基本模型和因果关系增强模型的过程是最小化式(5)和式(6)的过程.由于基本模型和因果关系增强模型共享同一个分类器, 所以能形成一个统一的特征空间.

预训练之后, 基本模型和判别模型进行竞争对抗.在对抗训练中, 基于带梯度惩罚的训练方法, 判别模型的损失函数为

$ \begin{align} &Obj^D(\theta_D) = \nonumber \\ &\qquad {\rm E}_{x_b\sim {\rm data}}\left[ D(H_B(x_b);\theta_D)\right]-\nonumber \\ &\qquad {\rm E}_{x_r\sim {\rm data}}\left[D(H_R(x_r);\theta_D)\right]+\nonumber \\ &\qquad \gamma {\rm E}_{(x_b, x_r)\sim {\rm data}}\left[ \|\nabla_xD(\varepsilon x_b+(1-\varepsilon)x_r)\|_p-1\right]^2 \end{align} $ (7)

判别模型的训练目标是近似拟合两数据分布的EM距离.其中, ${\rm E}_{(x\sim {\rm data})}\left[\cdot \right]$表示数据分布的期望.对于损失函数最后的惩罚项, 是将Lipschitz约束以差分形式加入到了惩罚中.

在对抗训练中, 基本模型的训练目标是要生成同因果关系增强模型产生的特征向量相近的特征向量.为此, 固定因果关系增强模型和分类器的参数, 优化基本模型使得二者的EM距离缩小, 同时最小化基本模型的交叉熵损失.

$ \begin{align} &Obj^B(\theta_B) = -\lambda {\rm E}_{x_b\sim {\rm data}}\left[ D(H_B(x_b;\theta_B))\right]+\nonumber \\ & \qquad {\rm E}_{(x_b, y)\sim {\rm data}}\left[J(C(H _B(x_b;\theta_B)), y)\right] \end{align} $ (8)

其中, $\lambda$用于平衡分类损失和调整特征损失权重.在对抗训练过程中, 利用式(7)和式(8)分别训练判别模型和基本模型, 使基本模型和判别模型进行竞争, 促进两个模型的共同优化, 直到基本模型与因果关系增强模型得到的特征向量足够接近, 即基本模型能够抽取到高区分度的因果关系分类特征.整个训练过程的算法如下:

输入. 训练数据和因果关系解释信息.

输出. 对抗学习后的基本模型及分类器.

步骤1. 预训练基本模型和因果关系增强模型.通过最小化式(5)和式(6)来分别初始化$\theta_B$, $\theta_C$$\theta_R$.

步骤2. 进行对抗训练.用式(7)训练判别模型.

步骤3. 用式(8)训练关系模型.

步骤4. 若未收敛, 转步骤2.

步骤5. 算法结束.

3 实验

本文设计并完成了BGRU因果关系抽取模型预训练、对抗训练、带注意力机制的对抗训练以及与已有因果关系抽取方法的对比四部分实验.在对抗训练之前, 先进行BGRU因果关系抽取实验, 即对基本模型和因果关系增强模型进行预训练; 对抗训练实验是在上述实验的基础上加入GRU框架, 利用GRU的对抗学习特性进行训练学习; 为发挥因果关系解释信息的关键作用, 在上述实验中加入词级别的注意力机制; 最后给出传统因果关系抽取方法SVM[10]的结果和已知文献中最好的抽取方法[11]与本文提出的方法的对比.

3.1 数据集

使用的数据集来自两个部分. 1) SemEval-2010-Task8的因果关系数据和非因果关系数据, 但因果关系数据的数量不能满足本文神经网络模型的需求; 2)是人工标注新闻语料后得到的因果关系数据.数据集共包含3 931条数据, 其中包含因果关系的数据有2 031条.数据集的构造说明见表 1.

表 1 数据集的构造说明 Table 1 Description of the dataset

为了进行评估, 将语料按照4:1:1的比例随机分成训练集、开发集和测试集, 分别用于模型的训练、超参数的调优和模型的评估.

3.2 BGRU因果关系抽取模型预训练

基本模型和因果关系增强模型是本文提出的因果关系抽取方法的重要组成部分, 为评价GAN框架发挥的效用, 必须对比分析包含因果关系解释信息的因果关系增强模型与基本模型的关系抽取结果.

基本模型和因果关系增强模型结构相同, 都采用双向门控循环单元神经网络, 包括输入层、词向量层、BGRU层以及输出层.输出层输出的是分类器分类后的结果.使用word2vec在包含实体名词性词位置指示标签的新闻语料上训练出200维的词向量.在基本模型和因果关系增强模型的训练中, 使用学习率为0.005的Adam进行训练, batch设为500.模型参数采用$10^{-5}$的L2正则化.本文在BGRU层使用dropout, 将其设为0.5.实验结果见表 2.

表 2 BGRU因果关系抽取结果(%) Table 2 Results of BGRU causality extraction (%)

表 2中的B-BGRU是基本模型, 此处的抽取结果是该模型在预训练之后通过分类器得到的数据结果. R-BGRU是因果关系增强模型, 与B-BGRU拥有相同的网络结构.但R-BGRU在句子输入时能够根据句子中的标签随机加入因果关系解释语句.此处的抽取结果同样是其预训练后的分类结果.实验结果表明, 因果关系增强模型的抽取结果高于基本模型.由于训练目标是让B-BGRU学习R-BGRU的特征向量, 从而在分类结果上靠近R-BGRU, 因此该实验结果是对抗训练的基础.

3.3 对抗训练

在第3.2节实验结果的基础上, 将基本模型和因果关系增强模型置于GAN框架内, 基本模型与判别模型进行对抗训练, 使得基本模型的因果关系抽取结果得到提升.实验结果见如表 3.

表 3 GAN框架下的因果关系抽取(%) Table 3 Causality extraction under GAN framework (%)

表 3展示的是基本模型预训练后的抽取结果和在GAN框架下与判别模型对抗学习之后的抽取结果.实验结果表明, GAN的对抗训练使得基本模型的因果关系抽取结果得到明显提升.在基本模型和判别模型的对抗训练中, 使用学习率为$10^{-5}$的Adam进行训练, 对于式(8)中的平衡参数, 设置$\lambda$ $=$ $0.2$.

3.4 带注意力机制的对抗训练实验

在基本模型和因果关系增强模型中加入词级别的注意力层, 将特征向量的注意力集中在对因果关系抽取有关键性作用的词上.实验结果见表 4.

表 4 带注意力机制的GAN框架下的因果关系抽取(%) Table 4 Causality extraction under GAN framework with attention (%)

表 4展示的是在加入注意力层的情况下, 基本模型和因果关系增强模型预训练后的抽取结果以及在GAN框架下基本模型与判别模型对抗学习之后的抽取结果.实验结果表明, 最终模型F1值达到了91.17 %, 明显高于表 3中的90.58 %, 说明加入的注意力机制进一步优化了抽取结果.

3.5 与已有因果关系抽取方法的对比实验

在因果关系抽取任务上的研究多采用人工设计特征的传统方法, 本文首先借鉴以往工作[10], 利用模型SVM在构造的数据集上进行因果关系抽取.对于已有文献中最好的关系抽取方法, 根据论文[11]中网络结构及相关参数的设置, 对其关系抽取模型进行复现, 最终通过在数据集上的实验得到抽取结果.

图 4汇总了不同模型的因果关系抽取结果.其中Att-BLSTM是本文复现的关系抽取网络, 在本文数据集上的F1值达到了89.21 %, 而本文最终的模型GAN-Att-BGRU的F1值达到了91.17 %, 因果关系抽取结果有明显提升.

图 4 不同模型的对比实验 Figure 4 Comparative experiment of different models

实验结果说明, 基本模型在GAN的对抗训练中, 从包含因果解释信息的因果关系增强模型中学习了高区分度的特征, 并通过注意力机制更好地发挥作用, 最终, 本文提出的在GAN框架下的带注意力机制的双向门控循环单元神经网络超越了传统方法和已有文献中的最好方法, 获得了更优的抽取效果.

4 结论

本文提出一种GAN对抗框架下的因果关系抽取方法, 将带注意力机制的BGRU与对抗学习相融合, 在因果关系增强模型中引入因果关系解释语句.基本模型通过模仿学习因果关系增强模型生成的特征向量表示, 得到高区分度的特征用于因果关系分类, 从而提高因果关系抽取效果.同时, 加入的注意力机制在此基础上进一步优化了抽取结果.通过在SemEval-2010-Task8扩展之后的数据集上进行对比实验, 说明GAN框架下带注意力机制的双向门控循环单元神经网络在因果抽取任务上的有效性和优越性.

因果关系抽取是一项基本任务, 除了提高因果关系抽取结果外, 还有很多有意义的工作值得深入研究.同时, 因果关系抽取及其应用研究仍旧存在诸多挑战, 需要更多的关注和探索.

参考文献
1
Radinsky K, Davidovich S, Markovitch S. Learning causality for news events prediction. In: Proceedings of the 21st International Conference on World Wide Web. Lyon, France: ACM, 2012. 909-918
2
Hashimoto C, Torisawa K, Kloetzer J, Sano M, Varga I, Oh J H, et al. Toward future scenario generation: extracting event causality exploiting semantic relation, context, and association features. In: Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Baltimore, MD, USA: ACL, 2014. 987-997
3
Girju R. Automatic detection of causal relations for question answering. In: Proceedings of the 2003 ACL Workshop on Multilingual Summarization and Question Answering. Sapporo, Japan: ACL, 2003. 76-83
4
Oh J H, Torisawa K, Hashimoto C, Sano M, De Saeger S, Ohtake K. Why-question answering using intra-and inter-sentential causal relations. In: Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics. Sofia, Bulgaria: ACL, 2013. 1733-1743
5
Goodfellow I J, Pouget-Abadie J, Mirza M, Xu B, Warde-Farley D, Ozair S, et al. Generative adversarial nets. In: Proceedings of the 28th Annual Conference on Neural Information Processing Systems. Montreal, QC, Canada: NIPS, 2014. 2672-2680
6
Abe S, Inui K, Matsumoto Y. Two-phased event relation acquisition: coupling the relation-oriented and argument-oriented approaches. In: Proceedings of the 22nd International Conference on Computational Linguistics. Manchester, United Kingdom: ACM, 2008. 1-8
7
Do Q X, Chan Y S, Roth D. Minimally supervised event causality identification. In: Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing. Edinburgh, United Kingdom: ACM, 2011. 294-303
8
Hashimoto C, Torisawa K, De Saeger S, Oh J H, Kazama J. Excitatory or inhibitory: a new semantic orientation extracts contradiction and causality from the web. In: Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. Jeju Island, Korea: ACM, 2012. 619-630
9
Rink B, Harabagiu S. UTD: classifying semantic relations by combining lexical and semantic resources. In: Proceedings of the 5th International Workshop on Semantic Evaluation. Los Angeles, California, USA: ACM, 2010. 256-259
10
Zeng D J, Liu K, Lai S W, Zhou G Y, Zhao J. Relation classification via convolutional deep neural network. In: Proceedings of the 25th International Conference on Computational Linguistics. Dublin, Ireland: ACL, 2014. 2335-2344
11
Mikolov T, Karafiát M, Burget L, Černocký J, Khudanpur S. Recurrent neural network based language model. In: Proceedings of the 11th Annual Conference of the International Speech Communication Association. Makuhari, Chiba, Japan: DBLP, 2010. 1045-1048
12
Zhang D X, Wang D. Relation classification via recurrent neural network. arXiv: 1508. 01006, 2015.
13
Zhang S, Zheng D Q, Hu X C, Yang M. Bidirectional long short-term memory networks for relation classification. In: Proceedings of the 29th Pacific Asia Conference on Language, Information and Computation. Shanghai, China: PACLIC, 2015. 73-78
14
Zhou P, Shi W, Tian J, Qi Z Y, Li B C, Hao H W, et al. Attention-based bidirectional long short-term memory networks for relation classification. In: Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin, Germany: ACL, 2016. 207-212
15
Chung J Y, Gulcehre C, Cho K H, Bengio Y. Empirical evaluation of gated recurrent neural networks on sequence modeling. arXiv: 1412. 3555, 2014.
16
Zhang Y Z, Gan Z, Carin L. Generating text via adversarial training. In: Proceedings of the 2016 Workshop on Adversarial Training. Barcelona, Spain: NIPS, 2016.
17
Yu L T, Zhang W N, Wang J, Yu Y. SeqGAN: sequence generative adversarial nets with policy gradient. In: Proceedings of the 31st AAAI Conference on Artificial Intelligence. San Francisco, California, USA: AAAI, 2017. 2852-2858
18
Li J W, Monroe W, Shi T L, Jean S, Ritter A, Jurafsky D. Adversarial learning for neural dialogue generation. arXiv: 1701. 06547, 2017.
19
Arjovsky M, Chintala S, Bottou L. Wasserstein GAN. arXiv: 1701. 07875, 2017.
20
Gulrajani I, Ahmed F, Arjovsky M, Dumoulin V, Courville A. Improved training of Wasserstein GANs. In: Proceedings of the 31st Annual Conference on Neural Information Processing Systems. Long Beach, CA, USA: NIPS, 2017. 5769-5779