语义图支持的阅读理解型问题的自动生成

徐坚

徐坚. 语义图支持的阅读理解型问题的自动生成 [J]. 智能系统学报, 2024, 19(2): 420-428. doi: 10.11992/tis.202207001
引用本文: 徐坚. 语义图支持的阅读理解型问题的自动生成 [J]. 智能系统学报, 2024, 19(2): 420-428. doi: 10.11992/tis.202207001
XU Jian. Generating reading comprehension questions automatically based on semantic graphs [J]. CAAI Transactions on Intelligent Systems, 2024, 19(2): 420-428. doi: 10.11992/tis.202207001
Citation: XU Jian. Generating reading comprehension questions automatically based on semantic graphs [J]. CAAI Transactions on Intelligent Systems, 2024, 19(2): 420-428. doi: 10.11992/tis.202207001

语义图支持的阅读理解型问题的自动生成

doi: 10.11992/tis.202207001
基金项目: 国家自然科学基金项目(62166050);云南师范大学2020年研究生科研创新基金项目(YSDBS178).
详细信息
    作者简介:

    徐坚,教授,主要研究方向为机器学习、自然语言处理、智慧教育。出版著作6部,发表学术论文48篇。E-mail:qjncxj@126.com.

    通讯作者:

    徐坚. E-mail:qjncxj@126.com.

  • 中图分类号: TP311

Generating reading comprehension questions automatically based on semantic graphs

  • 摘要: 问题自动生成是人工智能领域的一项技术,其目标是根据输入的文本模拟人类的能力,自动生成相关问题。目前的问题自动生成研究主要基于通用数据集生成问题,缺乏专门针对教育领域的问题生成研究。为此,专注于面向中学生的问题自动生成进行研究。构建一个专门为问题生成模型训练需求而设计的数据集RACE4QG,以满足中学生教育领域的独特需求;开发一个端到端的问题自动生成模型,该模型训练于数据集RACE4Q,并采用改进型“编码器−解码器”方案,编码器主要采用两层双向门控循环单元,其输入为单词和答案标记的嵌入表示,编码器的隐藏层采用门控自注意力机制获得“文章和答案”的联合表示后,再输入到解码器生成问题。试验结果显示,该模型优于最优基线模型,3个评价指标BLEU-4、ROUGE-L和METEOR分别提高了3.61%、1.66%和1.44%。

     

    Abstract: Automatic question generation is a technology in the field of artificial intelligence. Its goal is to simulate human capabilities and automatically generate relevant questions based on input text. Current research on automatic question generation is mainly based on generating questions from general datasets, and there is a lack of research on question generation specifically targeting the field of education. To this end, this article focuses on the automatic generation of questions for middle school students.First, this article constructs a dataset RACE4QG specifically designed for the training needs of question generation models to meet the unique needs of the field of middle school student education. Secondly, we developed an end-to-end automatic problem generation model, which was trained on the RACE4Q dataset.In the improved "encoder-decoder" scheme, the encoder mainly adopts a two-layer bidirectional gated recurrent unit, whose input is the word embedding and answer-tagging embedding, and the hidden layer of the encoder adopts the gated self-attention mechanism to obtain the passage-answer representation, which is then fed to the decoder to generate questions. The experimental results show that the model in this paper is better than the optimal baseline model, and the three evaluation indicators BLEU-4, ROUGE-L, and METEOR are improved by 3.61, 1.66, and 1.44 points, respectively.

     

  • 阅读是数字时代人类交流的一项重要技能。非英语国家最重要的教学目标之一是提高学习者的阅读理解能力[1]。提问教学作为一种重要的教学手段,要求教师能根据指定的教学材料快速有效地生成高质量的阅读理解问题,然而,教师要完成这任务颇具难度。

    幸运的是,人工智能的飞速发展[2]为自动问题生成提供了机遇。近年来,自动问题生成(automatic question generation,QG)作为自然语言处理领域的一个重要分支,吸引了大批神经语言处理社区研究者的兴趣[3-4]。自动问题生成模型的实质是人工神经网络,其基于海量数据来训练问题生成模型。因此,自动问题生成的主要任务有2个:一是构建可用于训练模型的大规模数据集;二是设计优良的模型。传统上,问题生成数据集的构建通常采用“改造法”,即改造传统的问答数据集如SQuAD[5]、Narrative QA[6]、HotpotQA[7]和RACE[8]等,问题生成模型的成熟架构一般基于循环神经网络。然而,就面向教育领域的自动问题生成任务而言,仍面临2个挑战:1)缺乏特定于教育领域的问题生成数据集;2)现有的自动问题生成模型主要使用基于RNN的一些变体(如LSTM[9]),而RNN模型具有固有的序列性质并且难以处理长输入序列等缺陷,迫使传统的基于RNN的问题生成模型仅能生成句子级而非文章级的问题,例如,Du等[10]利用句子级信息来提高自动问题生成模型的性能,鉴于其研究工作未能很好地处理文章级输入(即多个句子),Zhao等[4]引入最大指针机制(maxout-pointer)和门控制自注意力机制来解决此问题,并取得更好的性能。然而,即使是最好的自动问题生成模型也难以在教育领域生成令人满意的问题,这种功能障碍可以归因于双重挑战:教育型自动问题生成数据集的质量和自动问题生成模型的性能。在教育中,解决这些挑战具有突出的现实意义,教师可以利用自动生成的问题来提高学习者的课堂参与度和阅读能力。

    本研究基于现有的教育型问答数据集RACE,将其改造为一个有效的问题生成数据集。此外,考虑到现有自动问题生成模型在教育领域表现欠佳,提出了一个更强大的自动问题生成模型,该模型拥有更先进的编码器和解码器。

    本研究的贡献如下:

    1) 基于现有的教育数据集RACE重建一个问题生成数据集RACE4QG。

    2) 基于RACE4QG数据集,提出了一种端到端的自动问题生成模型,该模型主要由编码器和解码器组成。在编码器中,采用门控注意力机制来丰富词嵌入。在解码器中,引入注意力和指针网络机制以动态生成问题。

    3) 开展对比试验和消融试验。在试验部分,本研究的自动问题生成模型与4个基线模型进行了试验对比。另外,为考察本研究模型各功能组件的作用,开展了消融试验以验证去掉各个组件的模块效果。

    自动问题生成最重要的应用就是为阅读理解教学和评价生成问题[11-13]。问题生成的最初思想主要基于启发式规则,这些规则使用手动构建的模板来生成问题,并对生成的问题进行排名。Heilman等[14]首次提出通过启发式策略生成问题,该策略利用手动编写的规则进行句法转换,将陈述句转化为问题,再通过逻辑回归模型对生成的问题进行排名获得最佳问题。Yao等[15]提出了一种语义重写方法来构建语义结构和语法规则以生成更好的问题。鉴于创建完整语义表示的无数挑战,Labutov等[16]寻求避开语义创建,将自动问题生成任务简化为“本体−众包−相关性”工作流程,先将问题模板众包出去,再选择最佳候选模板来生成问题。由于创建模板需要专家完成,且模型的数据和灵活性有限,抑制了问题生成模型的泛化能力。

    鉴于基于规则来生成问题既费时又费力,自2015年以来,研究者尝试采用统计方法来生成问题,尤其是基于神经网络的问题生成方法受到青睐,其主要思想是采用具有注意力机制的序列到序列(sequence-to-sequence)的问题生成方法,其旨在通过使用sequence-to-sequence框架来生成问题[17-18]。Du等[10]最早使用sequence-to-sequence模型来生成问题,试验结果表明,无论是在问题生成的速度和质量方面,sequence-to-sequence模型明显优于基于规则的模型。尽管如此,该论文也承认该模型生成的问题不能准确地对应到原始上下文的特定部分。为了应对这一挑战,Zhou等[3]建议使用注释向量将答案单词(答案文本中的词)的位置信息合并到编码过程中。Song等[17]没有采用注释向量来标记答案位置,而是引入统一的框架对文章和答案进行编码。然而,以上问题生成方法在处理长输入上下文时的效果不佳。为此,Zhao等[4]引入了一种混合机制,该机制使用门控自注意力和最大指针技术来处理长输入上下文。更进一步,Yuan等[18]首先通过在一些自然语言处理任务上训练大型的预训练神经模型来获得深度语言特征,然后将这些深度语言特征整合到一个sequence-to-sequence的问题生成模型中,以引导问题的生成,这个模型将基线模型的BLEU-4指标提高了6.2%。

    虽然以上问题生成方法在通用领域已经取得了较好效果,但在教育领域的表现欠佳,原因有二:1)缺乏专门针对教育领域的问题生成数据集;2)现在的问题生成模型也未能充分挖掘文章中的语义结构信息。为此,本研究重构了一个问题生成数据集RACE4EQG,设计一个答案引导的图注意网络AO-GAT来捕获文章的语义图,以生成更好的问题。

    RACE[8]是一个大规模的考试类问答数据集,由卡内基梅隆大学于2017年发布,RACE的语料源自中国初中和高中学生的英语考试真题,该数据集包括27933篇文章,以及97687个阅读理解型问题。在RACE中,每个样本是一个四元组“文章,答案,问题,干扰答案”,如果将该四元组的干扰答案删除,形成三元组“文章,答案,问题”,再进行一些预处理工作,就可用于训练本研究的自动问题生成模型。

    本研究借鉴Jia等[19]的思想来改造RACE,重构能用于本研究自动问题生成模型训练的数据集RACE4QG:

    1) 删除干扰答案。鉴于本研究的自动问题生成模型是基于答案引导来生成问题,如果以干扰答案为引导,势必生成不正确的问题,因此,将RACE中的干扰答案移除后,数据集的样本格式就由四元组“文章,答案,问题,干扰答案”变成三元组“文章,答案,问题”。

    2) 提升数据集的样本质量。RACE数据集中的问题分为两类:完形填空式的问题和标准的问题。完形填空式的问题也叫填空题,用于传统的问答任务,不能直接用于本研究的自动问题生成任务,因此,需要删除完形填空式的问题。

    3) 标注答案单词。使用前文提到的离散型答案标记策略对文章中的单词进行标注,以引导问题的生成。

    经过以上3个步骤,重构RACE得到新的问题生成数据集RACE4QG,该数据集的样本数达46397个,每个样本的结构为三元组“文章、答案、问题”。这些样本划分到训练集、评估集和测试集的样本数分别为41791、2312和2294。

    此外,为了利用数据集RACE4Q中文章的答案来引导模型生成好的问题,将在2.2.1小节描述如何采用新的答案标记策略来标注该数据集中的答案单词。

    本研究提出了一种基于重构数据集的端到端自动问题生成模型,其根据给定的输入文章和答案生成多个语法一致且流畅的问题。

    形式上,自动问题生成任务被定义为生成问题$ \overline{q} $

    $$ \overline q = \arg \mathop {\max }\limits_q P({{q}}|{{p}},{{a}}) $$ (1)

    式中,p、aq分别表示文章、答案和问题。其中文章pm个单词,记为$ p = \{ {x_t}\} _{t = 1}^m $$ P(q|p,a) $是一个条件概率。

    自动问题生成的主流模型是基于sequence-to-sequence的思想[20]。然而,使用这种策略的自动问题生成模型无法生成满足阅读理解教学需要的问题。为了应对该挑战,本研究首先以选用段落级提问模型[4]作为基线模型,引入门控循环单元(gated recurrent units, GRU)和图注意力网络(graph attention networks, GAT)后,形成新的端到端自动问题生成模型(见图1),该模型包括5个部分:输入层、嵌入表示层、编码器层、解码器层和输出层。

    图  1  端到端的自动问题生成模型
    Fig.  1  End-to-end automatic question generation model
    下载: 全尺寸图片

    自动问题生成模型的编码器采用两层双向的GRU (gated recurrent units),GRU作为LSTM的变体,具有参数少,性能优的特性。GRU在时间步t的隐藏状态$ h_t^p $由前向和后向隐藏状态拼接,即${\boldsymbol{h}}_{{t}}^{{p}} = \left[ { { {{\overrightarrow{\boldsymbol{h}}}}_{t}^{p}} {,} {{{\overleftarrow{\boldsymbol{h}}}}_{t}^{p}} } \right]$,如此,所有时间步的隐藏状态可表示为${{\boldsymbol{H}}^p} = \left\{ {{\boldsymbol{h}}_t^p} \right\}_{t = 1}^m$。GRU以文章和答案为输入,然后输出“文章−答案”的向量表示,具体来讲,在每个时间步t,GRU的隐藏状态可表示为

    $$ {\boldsymbol{h}}_t^p = {\text{GRU}}\left( {{\boldsymbol{h}}_{t - 1}^p,x_t^p} \right) $$ (2)

    式中:${{\boldsymbol{h}}}_{t-1}^{p}$为上一时间步的隐藏状态;$ x_t^p $是时间步t的一个输入单词(即文章的单词)。

    3.2.1   离散型答案标记策略

    本研究的自动问题生成模型属于答案导引型问题生成模型,以文章和答案为输入,再生成问题。因此,对于数据集中每个样本里面的文章,需要将这些文章中的那些包含在答案中的单词标记出来,以便模型生成质量更高的问题。

    本研究的RACE4QG数据集源自前人的问答数据集RACE。鉴于RACE是一个问答(question answering,QG)数据集,其问题和答案均源自实际的英语考试,答案单词分散于文章中,这不同于问答数据集(例如SQuAD)中答案单词是连续出现的序列,因此,传统的连续型答案标记方法[3]不适用于本研究自动问题生成任务。本研究采用离散型答案标注策略,具体来讲,给定一个答案(一般由多个单词构成),本研究首先将答案执行分词操作,获得一个单词集合,再删除停用词,余下的单词放到集合X。如果文章中的单词属于集合X,该单词被标记为“A”,其余的文章单词被标记为“O”。

    3.2.2   答案引导的图注意网络

    文章中各句子内部的语义结构信息和句子之间的关联信息对生成更高质量的问题提供重要信息。本小节将就此问题展开研究。

    本研究的自动问题生成任务旨在生成真正的阅读理解问题,这些问题需要考察学习者在句子内和句子之间进行深度推理能力,这个任务对传统的自动问题生成模型而言颇具难度。图神经网络作为一种能够从图结构数据中学习特征的神经网络,是图分析方法与深度神经网络的结合,在拟合单个样本特征之后,进一步提取样本间的关系信息。作为图神经网络的典型代表,图注意力机制(graph attention networks, GAT)已经广泛应用于计算机视觉领域[21]。受Zhang等[22]的启发,本研究提出了一个答案引导的图注意网络(answer-oriented graph attention network , AO-GAT)来捕获文章内部的依赖关系,以生成高质量的问题。AO-GAT中的AO表示构建由答案引导的文章级依存句法图,简称“语义图”,GAT可将该图转换为嵌入表示。AO-GAT的构建步骤如下。

    1) 构建由答案引导的语义图。为了捕获文章中的内部依赖信息,可对指定文章构建其语义图,如图2所示。

    图  2  答案引导的语义图的构建过程
    Fig.  2  Building process of answer-oriented graph
    下载: 全尺寸图片

    具体步骤如下:

    ①将文章分割为句子。将输入的文章P拆分为一个个独立的句子,记为$ p={\left\{{s}_{i}\right\}}_{i=1}^{N} $其中,si表示文章的第i个句子,N表示文章的句子数量。

    ②解析句子的句法结构。采用StanfordCoreNLP库[23]生成句子si的解析依赖树streei,以此类推,文章的每个句子对应一棵树,整篇文章就对应一个树的集合。

    ③生成语义图。为了将相邻句子的依存句法树连接起来,可查找两棵树中对应原始句子首尾单词的边界节点,若这两棵树的边界节点在原文中相邻,则将这2个边界节点连接。以此类推,可得到一张由N棵树连接而成的语义图。

    ④修剪语义图。鉴于只有包含答案的句子才助于生成有价值的问题,本研究依次检查语义图中的每棵树是否包含答案单词,若不包含,则将此树从图中删除,最终可获得一个精简后的语义图(简称“精简语义图”),图中的每个节点代表一个文章单词。

    2)将精减语义图转换为邻接矩阵。该图存储为一个邻接矩阵G,该矩阵为0-1矩阵,取值规则:如果图中的节点i和节点j相连,则矩阵的第i行第j列的值Gi,j为1,否则为0。

    3)获取精简语义图的GAT嵌入表示。为了获得更丰富的图节点(每个节点对应一个单词)特征,可将图注意力机制应用于图邻接矩阵。在编码阶段,句子内和句子间的依赖信息存储在图邻接矩阵G中,本研究采用图注意力机制(graph attention networks, GAT)从G中提取此信息。图注意力机制以文章单词嵌入和邻接矩阵G作为输入,然后输出更高维的词嵌入表示,即GAT嵌入。详细步骤如下。

    ①GAT的输入为Ge,其中G为当前文章的邻接矩阵,e为整个文章的特征表示,e = {e1, e2,···, em},eiRFF表示单个节点(对应文章单词)的特征数,ei为当前文章第i个单词的一组特征。

    ②计算节点i对其所有邻居的注意力

    $$ {a_{ij}} = \frac{{\exp \left( {P{{\rm{ReLU}}} \left( {{{\left( {{{\boldsymbol{W}}^a}} \right)}^{\rm{T}}}\left[ {{{\boldsymbol{e}}_i},{{\boldsymbol{e}}_{{j}}}} \right]} \right)} \right)}}{{\displaystyle\sum\limits_{k \in {N_i}} {\exp } \left( {{P{\rm{ReLU}}} \left( {{{\left( {{{\boldsymbol{W}}^a}} \right)}^{\rm{T}}}\left[ {{{\boldsymbol{e}}_i},{{\boldsymbol{e}}_{{k}}}} \right]} \right)} \right)}} $$ (3)

    式中:Wa是一个可训练的权重向量,WaR2F'Ni表示节点i的所有邻居节点。值得注意的是,GAT的原文使用LeakyReLU作为激活函数。在本研究试验中,比较了ELU、ReLU、ReLU6和PReLU等各种激活函数,发现使用PReLU的效果更好。

    ③GAT的输出被送至编码器。文章的语义图中全部N个节点的特征序列e={e1, e2,···, eN},eiRF表示图中第i个节点的全部特征,F表示特征的个数。GAT以e作为输入,得到对应的输出${{\boldsymbol{e}}^\prime } = \left\{ {{\boldsymbol{e}}_1^\prime ,{\boldsymbol{e}}_2^\prime , \cdots ,{\boldsymbol{e}}_{{N}}^\prime } \right\},{\boldsymbol{e}}_{{i}}^\prime \in {{\bf{R}}^{{F}}}$e′的计算过程可展开为

    $$ {\boldsymbol{e}}_i^\prime = {{\rm{sigmoid}}} \left( {\sum\limits_{j \in {N_i}} {{a_{ij}}} {\boldsymbol{W}}{{\boldsymbol{e}}_j}} \right) $$ (4)

    式中:ai,j 表示节点i对其邻居节点j的注意力;ej表示邻居节点j的全部特征;W为可训练的权值矩阵。

    为了进一步提高自注意力的性能,本研究利用了多头注意力机制[24],每个注意力头依次捕获文章中某一方面的特征后,将所有注意力头捕获的特征连接起来作为总的特征。此时,式(4)变成

    $$ {\boldsymbol{e}}_i^\prime = {{\rm{sigmoid}}} \left( {\sum\limits_{{{k}} = 1}^{{K}} {\sum\limits_{{{j}} \in {{{N}}_{{i}}}} {{{a}}_{{{ij}}}^{{k}}} } {{\boldsymbol{W}}^{{k}}}{{\boldsymbol{e}}_j}} \right) $$ (5)

    式中:K为注意力头的总个数,本研究的试验结果表明K=8时网络的效果最好。将GAT的最终输出${{\boldsymbol{e}}^\prime } = \left\{ {{\boldsymbol{e}}_1^\prime ,{\boldsymbol{e}}_2^\prime , \cdots ,{\boldsymbol{e}}_m^\prime } \right\}$ 以及词嵌入和答案标记共同拼接起来作为编码器的输入。

    3.2.3   门控自注意力

    经过上述步骤,获得了原始的“文章−答案”联合表示,为了聚合来自文章的信息并结合文章内的依赖关系以改进每个时间步的“文章−答案”嵌入,采用门控自注意力机制来获得自匹配表示:

    $$ {\boldsymbol{a}}_t^E = {{\rm{softmax}}} \left( {{{\left( {{{\boldsymbol{H}}^p}} \right)}^{\rm{T}}}{{\boldsymbol{W}}^s}{\boldsymbol{h}}_t^p} \right) $$ (6)
    $$ {{\boldsymbol{S}}_t} = {{\boldsymbol{H}}^p} \cdot {\boldsymbol{a}}_t^E $$ (7)

    式中,St是所有文章单词嵌入的加权求和,表示这些单词在时间步t对当前单词的关注度。

    将文章答案的原始表示$ {{\boldsymbol{h}}}_{t}^{p} $和自匹配表示St进行组合,得到一个新的文章答案表示$ {\hat{{\boldsymbol{h}}}}_{t}^{p} $

    $$ {{\boldsymbol{f}}_t} = \tanh \left( {{{\boldsymbol{W}}^f}\left[ {{{\boldsymbol{h}}}_{t}^{p}{,}{{{\boldsymbol{S}}}_{t}}} \right]} \right) $$ (8)
    $$ {{\boldsymbol{g}}_{{t}}} = {{\rm{sigmoid}}} \left( {{{\boldsymbol{W}}^{\text{g}}}\left[ {{{\boldsymbol{h}}}_{t}^{p}{,}{{{\boldsymbol{S}}}_{t}}} \right]} \right) $$ (9)
    $$ \hat {\boldsymbol{h}}_{{t}}^{{p}} = {{\boldsymbol{g}}_{{t}}} \times {{\boldsymbol{f}}_{{t}}} + \left( {1 - {{\boldsymbol{g}}_{{t}}}} \right) \times {\boldsymbol{h}}_{{t}}^{{p}} $$ (10)

    式中:ft是一个新的自匹配增强型文章答案表示;gt是一个门向量,用于在$ {{\boldsymbol{h}}}_{t}^{p} $St之间选择信息以获得最终的文章答案表示$ \hat {\boldsymbol{h}}_{{t}}^{{p}} $

    3.2.4   文章与答案的融合

    文章单词和答案单词之间的信息可以用于生成好的问题。为此,将原始隐藏状态H p和答案隐藏状态H A统一为

    $$ {{\boldsymbol{H}}^u} = {{\rm{union}}} \left( {{{\boldsymbol{W}}^u}\left[ {{{{\hat {\boldsymbol{H}}}}^{P}}{;}{{{\boldsymbol{H}}}^{A}}{;}{{{\hat {\boldsymbol{H}}}}^{P}}{{ \times }}{{{\boldsymbol{H}}}^{A}}} \right]} \right) $$ (11)

    式中,${\hat {\boldsymbol{H}}^P} = \left\{ {\hat {\boldsymbol{h}}_t^p} \right\}_{t = 1}^m,{{\boldsymbol{H}}^{{A}}} = \left\{ {{\boldsymbol{h}}_{{t}}^{{A}}} \right\}_{t = 1}^n$mn分别是答案的单词个数和文章的单词个数。

    解码器采用单层单向GRU预测下一个单词yt。在每个时间步t,对编码器的最终隐藏状态应用注意力机制凸显文章中更重要的单词,以获得原始文本的动态表示,称为上下文向量Ct。再将Ct、解码器先前生成的全部单词(y1, y2, ···, yt−1)和当前解码器状态dt拼接起来,拼接结果输入解码器后使用指针网络生成单词yt

    3.3.1   注意力机制

    注意力机制一直是保证提问模型性能的默认配置。在本研究的解码器中,Luong注意力机制[25]用于获得原始注意力(见式(12))。注意力层(见式(14))作用于解码器状态dt和注意力上下文向量Ct的拼接结果,以获得新的解码器状态$ {\hat{{\boldsymbol{d}}}}_{t} $

    $$ {\boldsymbol{a}}_t^D = {{\rm{softmax}}} \left( {{{\hat {\boldsymbol{H}}}^P}{{\boldsymbol{W}}_a}{{\boldsymbol{d}}_t}} \right) $$ (12)
    $$ {{\boldsymbol{C}}_t} = {\hat {\boldsymbol{H}}^p}{\boldsymbol{a}}_t^D $$ (13)
    $$ {\hat {\boldsymbol{d}}_t} = \tanh \left( {W\left[ {{{{\boldsymbol{d}}}_{t}}{,}{{{\boldsymbol{C}}}_{t}}} \right]} \right) $$ (14)
    $$ {{\boldsymbol{d}}_{t + 1}} = {\rm{GRU}}([{{{\boldsymbol{y}}}_{t}}{,}{{\hat {\boldsymbol{d}}}_{t}}]) $$ (15)
    3.3.2   采用指针网络来生成问题

    在本研究的自动问题生成任务中,解码器的输出词汇必须根据输入序列的长度动态变化,以保证生成更好的问题。然而,传统的基于sequence-to-sequence的自动问题生成模型无法应对这一挑战。为此,受到See等[26]的启发,本研究采用指针网络(pointer-generator network)来解决这个问题。

    指针网络是由传统的生成器模型和指针网络混合而成,可提高问题生成的质量。指针网络的生成器模型和指针网络能分别从词汇表和原文取词。在编码器的每一时间步,将原文单词动态地添加到词汇表获得“扩展词汇表”,同时,动态计算一个生成概率${p}_{{\rm{gen}}}\in \left[\mathrm{0,1}\right]$用作软开关,可决定模型当前的输出单词是从词汇表生成还是从原文拷贝。由此,解码器在时间步t获得一个基于扩展词汇表的概率分布

    $$ P\left({w}\right)={p}_{\mathrm{g}\mathrm{e}\mathrm{n}}{P}_{\mathrm{v}\mathrm{o}\mathrm{c}\mathrm{a}\mathrm{b}}\left({w}\right)+(1-{p}_{\mathrm{g}\mathrm{e}\mathrm{n}}){p}_{\mathrm{c}\mathrm{o}\mathrm{p}\mathrm{y}} $$ (16)

    式中:w表示扩展词汇表的任一单词;Pvocab表示词汇表中所有单词的概率形成的概率分布;Pvocab(w)表示w出自词汇表的概率;pcopy表示w来自原文的概率;pgen是一个软开关。

    该扩展词汇表中的每个单词都须通过式(16)计算出该单词作为新词的概率,至此,扩展词汇表中概率值最大的单词即为解码器的当前输出单词。

    本研究的自动问题生成模型的词汇表包含4.5万个单词,其他超纲单词设置为UNK符号。输入文章和输出问题的最大长度分别为400和30。使用预训练的GloVe[27]来初始化词嵌入表示,并在训练期间对其进行微调。

    该自动问题生成模型主要包括3个神经网络:输入段落的编码器、答案编码器、解码器。输入段落编码器选用一种先进的循环神经网络GRU,采用两层双向架构,隐藏单元大小为600维(每个方向为300维);答案编码器使用隐藏单元大小为600(每个方向一半)的单层双向GRU;解码器使用单层单向GRU,隐藏单元大小为300维。

    Dropout值设置为0.3,除词嵌入之外的所有可训练参数都设置为均匀分布(−0.1,0.1)。在训练期间随机梯度下降(stochastic gradient descent, SGD)被用作优化器,其中batch_size=45,本研究的自动问题生成模型和基线的初始学习率都设置为0.01。训练模型期间,前8个epoch的学习率固定为0.01,然后每隔一个epoch学习率就减半,学习率下降时不能低于阈值0.001。

    解码器采用集束搜索策略来生成问题,集束搜索的大小设置为10,模型的检查点在验证集上选择,在测试集上报告结果。

    为了评估本研究的自动问题生成模型与基线的性能对比,重写了4个可下载到代码的基线模型:1) sequence-to-sequence (seq-to-seq)[28]。使用注意机制和拷贝策略的sequence-to-sequence问题生成模型;2) Pointer-generator[29]。使用Pointer-generator机制来生成问题;3) Transformer[30]。基于Transformer的问题生成模型;4) ELMo-QG[31]。采用指针网络从输入文章中复制单词来生成问题。

    公平起见,做对比试验时,本研究的答案标记策略也用在基线模型。进一步,每个基线的编码器使用两层双向LSTM,解码器使用单层单向LSTM,其余设置保持不变。

    本研究将自动评估生成问题和真实问题的匹配度。为了全面开展评估任务,从精度、召回率和语义的视角来选择评价模型的指标。为此,分别采用BLEU(表1中简称B)、ROUGE-L和METEOR。BLEU评估生成问题和真实问题之间的n-gram精度。ROUGE-L负责评估召回率。请注意,BLEU和ROUGE-L 2个指标只从浅层面而非语义层面(深层面)来评估问题的质量,METEOR指标可从语义层面来开展评估工作。表1列出了本研究模型和基线模型的评估结果。

    表  1  BLEU、ROUGE和METEOR对所有系统的自动评估结果
    Table  1  Automatic evaluation results on all systems by BLEU, ROUGE, and METEOR
    模型B-1B-2B-3B-4ROUGEMETEOR
    seq-to-seq23.729.956.135.0824.329.60
    Pointer-
    generator
    28.9413.848.446.2630.2113.11
    Transformer28.9114.669.046.5032.5114.27
    ELMo-QG34.4217.7611.988.8234.0114.87
    本研究模型36.2421.1115.1212.4335.6716.31

    通过本研究的自动问题生成模型采用“GRU+GAT”的策略,该模型在所有指标上都优于基线。此外,可以看到2个基线模型(即sequence-to-sequence和Transformer)之间存在明显的性能差距,主要原因可能是Transformer使用了与本研究模型相同的层次结构。此外,该模型比Transformer表现更好,这表明GAT机制在从句内和句间捕获信息时有重要作用。本研究还比较了集束搜索算法生成的10道题的Jaccard距离,发现这些题的质量依次下降,原因可能是下一个问题的可能性较低。

    为了评估GAT机制和GRU网络的有效性,开展了2种类型的消融试验。首先,本研究模型分别在去掉GAT和GRU后具有不同程度的性能下降;其次,本研究模型使用“GRU+GAT”的策略,对比论文AG-GCN[20]的“LSTM+GCN”的策略,表2表明本研究的GAT机制优于GCN,原因是GAT可以更好地捕获句子内和句子之间的重要语义和句法信息。同样,如果编码器的GRU被传统的LSTM替换,本研究模型的性能也会下降,因为GRU更适合本研究的数据集。消融试验结果如表2所示。

    表  2  本研究的智能模型开展消融试验的结果
    Table  2  Results of ablation experiments for our model
    方法B-1B-2B-3B-4ROUGEMETE0R
    GRU+GAT36.2421.1115.1212.4335.6716.31
    GRU35.6618.6811.618.0335.3415.90
    GRU+GCN36.1121.2415.2412.3635.4315.97
    GAT34.2517.3110.346.9234.5214.75
    LSTM+GAT35.6021.1615.2112.1634.8415.45

    为了评估问题生成模型的实际效果,本研究以一段英文为输入,由本研究模型自动生成问题,如下所示。

    文章:In Santa Cecilia, Mexico, Imelda Rivera was the wife of a musician. Imelda’s husband left her and her daughter, coco, to pursue a career in music. She banned music in the family and opened a shoemaking family business.

    答案1:Imelda Rivera

    问题1:Who was the wife of a musician in Santa Cecilia, Mexico?

    答案2:coco

    问题2:Who did Imelda’s husband leave her and her daughter to pursue a career in music?

    答案3:shoemaking

    问题3:What business did Imelda’s husband open in Santa Cecilia, Mexico?

    第1个和第3个问题的表达较为流利、准确,缘于生成的问题所在的上下文语义比较明确,句子结构规范,而第2个问题的上下文句法结构比较复杂,同时还需要模型具有较好的推理能力,对于此类推理性问题的自动生成研究,仍是本领域的研究的重点和难点。

    在阅读理解教学中存在一个长期的痛点,即教师无法根据任意文章自动、及时地产生问题。本研究提出了一个端到端的自动问题生成模型,该模型在重构的RACE4QG数据集上训练。为了丰富文章答案嵌入表示,在模型的编码器中引入了一种结合门控策略与自注意力方法的AO-GAT机制。此外,模型解码器的性能通过引入注意力机制和指针网络得到增强。试验结果表明,本研究模型在自动评估方面优于基线模型。

    然而,试验结果与人类预期仍存在差距。原因有二:一是本研究数据集规模不够大,如前所述,本研究从原始RACE数据集中过滤掉52.5%的完形填空题来构建的RACE4QG,因此,未来的工作考虑将完形填空式问题转变为标准问题,这将使数据集RACE4QG的规模翻倍;二是虽然本研究提出的问题生成模型在数据集RACE4QG上取得了较好结果,并为进一步的研究提供了坚实的基础,但是这项具有挑战性的任务仍有很大的改进空间,未来将探索更先进的图结构来编码输入的文章,以进一步生成更好的问题。

  • 图  1   端到端的自动问题生成模型

    Fig.  1   End-to-end automatic question generation model

    下载: 全尺寸图片

    图  2   答案引导的语义图的构建过程

    Fig.  2   Building process of answer-oriented graph

    下载: 全尺寸图片

    表  1   BLEU、ROUGE和METEOR对所有系统的自动评估结果

    Table  1   Automatic evaluation results on all systems by BLEU, ROUGE, and METEOR

    模型B-1B-2B-3B-4ROUGEMETEOR
    seq-to-seq23.729.956.135.0824.329.60
    Pointer-
    generator
    28.9413.848.446.2630.2113.11
    Transformer28.9114.669.046.5032.5114.27
    ELMo-QG34.4217.7611.988.8234.0114.87
    本研究模型36.2421.1115.1212.4335.6716.31

    表  2   本研究的智能模型开展消融试验的结果

    Table  2   Results of ablation experiments for our model

    方法B-1B-2B-3B-4ROUGEMETE0R
    GRU+GAT36.2421.1115.1212.4335.6716.31
    GRU35.6618.6811.618.0335.3415.90
    GRU+GCN36.1121.2415.2412.3635.4315.97
    GAT34.2517.3110.346.9234.5214.75
    LSTM+GAT35.6021.1615.2112.1634.8415.45
  • [1] PEARSON P D. Handbook of research on reading comprehension[M]. London: Routledge, 2014: 27−55.
    [2] 崔铁军, 李莎莎. 人和人工智能系统的概念形成过程研究[J]. 智能系统学报, 2022, 17(5): 1012–1020.

    CUI Tiejun, LI Shasha. Concept formation process of human and artificial intelligence systems[J]. CAAI transactions on intelligent systems, 2022, 17(5): 1012–1020.
    [3] ZHOU Qingyu, YANG Nan, WEI Furu, et al. Neural question generation from text: a preliminary study[C]//HUANG X, JIANG J, ZHAO D, et al. National CCF Conference on Natural Language Processing and Chinese Computing. Cham: Springer, 2018: 662−671.
    [4] ZHAO Yao, NI Xiaochuan, DING Yuanyuan, et al. Paragraph-level neural question generation with maxout pointer and gated self-attention networks[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2018: 3901−3910.
    [5] RAJPURKAR P, ZHANG Jian, LOPYREV K, et al. SQuAD: 100, 000+ questions for machine comprehension of text[C]//Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2016: 2383−2392.
    [6] KOČISKÝ T, SCHWARZ J, BLUNSOM P, et al. The Narrative QA reading comprehension challenge[J]. Transactions of the association for computational linguistics, 2018, 6: 317–328. doi: 10.1162/tacl_a_00023
    [7] YANG Zhilin, QI Peng, ZHANG Saizheng, et al. HotpotQA: a dataset for diverse, explainable multi-hop question answering[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2018: 2369−2380.
    [8] LAI Guokun, XIE Qizhe, LIU Hanxiao, et al. RACE: large-scale ReAding comprehension dataset from examinations[C]//Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2017: 785−794.
    [9] 李倩玉, 王蓓, 金晶, 等. 基于双向LSTM卷积网络与注意力机制的自动睡眠分期模型[J]. 智能系统学报, 2022, 17(3): 523–530.

    LI Qianyu, WANG Bei, JIN Jing, et al. Automatic sleep staging model based on the bi-directional LSTM convolutional network and attention mechanism[J]. CAAI transactions on intelligent systems, 2022, 17(3): 523–530.
    [10] DU Xinya, SHAO Junru, CARDIE C. Learning to ask: neural question generation for reading comprehension[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg: Association for Computational Linguistics, 2017: 1342−1352.
    [11] 刘明, 张津旭, 吴忠明. 智能提问技术及其教育应用[J]. 人工智能, 2022, 9(2): 30–38.

    LIU Ming, ZHANG Jinxu, WU Zhongming. Intelligent questioning technology and its educational application[J]. AI-View, 2022, 9(2): 30–38.
    [12] RUS V, PIWEK P, STOYANCHEV S, et al. Question generation shared task and evaluation challenge: status report[C]//Proceedings of the 13th European Workshop on Natural Language Generation. New York: ACM, 2011: 318−320.
    [13] DHOLE K, MANNING C D. Syn-QG: syntactic and shallow semantic rules for question generation[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg: Association for Computational Linguistics, 2020: 752−765.
    [14] HEILMAN M, SMITH N A. Good question! Statistical ranking for question generation[C]//HLT '10: Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics. New York: ACM, 2010: 609−617.
    [15] YAO Xuchen, BOUMA G, ZHANG Yi. Semantics-based question generation and implementation[J]. Dialogue & discourse, 2012, 3(2): 11–42.
    [16] LABUTOV I, BASU S, VANDERWENDE L. Deep questions without deep understanding[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Stroudsburg: Association for Computational Linguistics, 2015: 889−898.
    [17] SONG Linfeng, WANG Zhiguo, HAMZA W. A unified query-based generative model for question generation and question answering[EB/OL]. (2017−09−04)[2020−01−01]. https://arxiv.org/abs/1709.01058.pdf.
    [18] YUAN Wei, HE Tieke, DAI Xinyu. Improving neural question generation using deep linguistic representation[C]//Proceedings of the Web Conference 2021. Ljubljana, Slovenia. New York: ACM, 2021: 3489−3500.
    [19] JIA Xin, ZHOU Wenjie, SUN Xu, et al. EQG-RACE: examination-type question generation[C]//Proceedings of the AAAI Conference on Artificial Intelligence. New York: AAAI, 2021: 13143−13151.
    [20] 李武波, 张蕾, 舒鑫. 基于Seq2Seq的生成式自动问答系统应用与研究[J]. 现代计算机, 2017(36): 57–60.

    LI Wubo, ZHANG Lei, SHU Xin. Application and research on generative automatic question answering system based on Seq2Seq[J]. Modern computer, 2017(36): 57–60.
    [21] 李景聪, 潘伟健, 林镇远, 等. 采用多路图注意力网络的情绪脑电信号识别方法[J]. 智能系统学报, 2022, 17(3): 531–539.

    LI Jingcong, PAN Weijian, LIN Zhenyuan, et al. Emotional EEG signal recognition method using multi-path graph attention network[J]. CAAI transactions on intelligent systems, 2022, 17(3): 531–539.
    [22] ZHANG Yuhao, QI Peng, MANNING C D. Graph convolution over pruned dependency trees improves relation extraction[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2018: 2205−2215.
    [23] MANNING C, SURDEANU M, BAUER J, et al. The stanford CoreNLP natural language processing toolkit[C]//Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations. Stroudsburg: Association for Computational Linguistics, 2014: 55−60.
    [24] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all You need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. New York: ACM, 2017: 6000−6010.
    [25] LUONG T, PHAM H, MANNING C D. Effective approaches to attention-based neural machine translation[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2015: 1412−1421.
    [26] SEE A, LIU P J, MANNING C D. Get to the point: summarization with pointer-generator networks[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Stroudsburg: Association for Computational Linguistics, 2017: 1073−1083.
    [27] PENNINGTON J, SOCHER R, MANNING C. Glove: global vectors for word representation[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2014: 1532−1543.
    [28] LIU Bingran. Neural question generation based on Seq2Seq[C]//Proceedings of the 2020 5th International Conference on Mathematics and Artificial Intelligence. New York: ACM, 2020: 119−123.
    [29] SUN Xingwu, LIU Jing, LYU Yajuan, et al. Answer-focused and position-aware neural question generation[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2018: 3930−3939.
    [30] LOPEZ L E, CRUZ D K, CRUZ J C B, et al. Simplifying paragraph-level question generation via transformer language models[C]//Pham DN, Theeramunkong T, Governatori G, et al. Pacific Rim International Conference on Artificial Intelligence. Cham: Springer, 2021: 323−334.
    [31] ZHANG Shiyue, BANSAL M. Addressing semantic drift in question generation for semi-supervised question answering[C]//Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Stroudsburg: Association for Computational Linguistics, 2019.
WeChat 点击查看大图
图(2)  /  表(2)
出版历程
  • 收稿日期:  2022-07-01
  • 录用日期:  2023-11-16
  • 网络出版日期:  2023-11-16

目录

    /

    返回文章
    返回