结合多尺度注意力机制和双向门控循环网络的视频摘要模型

闫河 刘灵坤 黄俊滨 张烨 段思宇

闫河, 刘灵坤, 黄俊滨, 等. 结合多尺度注意力机制和双向门控循环网络的视频摘要模型 [J]. 智能系统学报, 2024, 19(2): 446-454. doi: 10.11992/tis.202209048
引用本文: 闫河, 刘灵坤, 黄俊滨, 等. 结合多尺度注意力机制和双向门控循环网络的视频摘要模型 [J]. 智能系统学报, 2024, 19(2): 446-454. doi: 10.11992/tis.202209048
YAN He, LIU Lingkun, HUANG Junbin, et al. Video summarization model based on the multiscale attention mechanism and bidirectional gated recurrent network [J]. CAAI Transactions on Intelligent Systems, 2024, 19(2): 446-454. doi: 10.11992/tis.202209048
Citation: YAN He, LIU Lingkun, HUANG Junbin, et al. Video summarization model based on the multiscale attention mechanism and bidirectional gated recurrent network [J]. CAAI Transactions on Intelligent Systems, 2024, 19(2): 446-454. doi: 10.11992/tis.202209048

结合多尺度注意力机制和双向门控循环网络的视频摘要模型

doi: 10.11992/tis.202209048
基金项目: 国家重点研发计划“智能机器人”重点专项项目(2018YFB1308602);国家自然科学基金面上项目(61173184);重庆市自然科学基金项目(cstc2018jcyjAX0694).
详细信息
    作者简介:

    闫河,博士,教授,主要研究方向为图像多尺度几何分析、目标跟踪、模式识别。主持国家自然科学基金面上项目、中国博士后基金项目各1项,重庆市自然科学基金项目、教育部重点实验室访问学者基金项目各2项;以单位负责人参加科技部“十三五”重点研发计划“智能机器人”重点专项项目1项;参研省部级项目10余项。发表学术论文90余篇。E-mail:yanhe@cqut.edu.cn;

    刘灵坤,硕士研究生,主要研究方向为与深度学习相结合的视频摘要处理、视频理解、目标检测。E-mail:LiuLingK@stu.cqut.edu.cn;

    黄俊滨:黄骏滨,硕士研究生,主要研究方向为与深度学习相结合的视频摘要处理和视频描述方法。E-mail:huangjunbin@2020.cqut.edu.cn.

    通讯作者:

    闫河. E-mail:yanhe@cqut.edu.cn.

  • 中图分类号: TP391.41

Video summarization model based on the multiscale attention mechanism and bidirectional gated recurrent network

  • 摘要: 针对视频摘要任务中全局注意力在长距离视频序列上注意力值分布的方差较大,生成关键帧的重要性分数偏差较大,且时间序列节点边界值缺乏长程依赖导致的片段语义连贯性较差等问题,通过改进注意力模块,采用分段局部自注意力和全局自注意力机制相结合来获取局部和全局视频序列关键特征,降低注意力值的方差。同时通过并行地引入双向门控循环网络(bidirectional recurrent neural network, BiGRU),二者的输出分别输入到改进的分类回归模块后再将结果进行加性融合,最后利用非极大值抑制(non-maximum suppression, NMS)和核时序分割方法(kernel temporal segmentation, KTS)筛选片段并分割为高质量代表性镜头,通过背包组合优化算法生成最终摘要,从而提出一种结合多尺度注意力机制和双向门控循环网络的视频摘要模型(local and global attentions combine with the BiGRU, LG-RU)。该模型在TvSum和SumMe的标准和增强数据集上进行了对比试验,结果表明该模型取得了更高的F-score,证实了该视频摘要模型保持高准确率的同时可鲁棒地对视频完成摘要。

     

    Abstract: In the video summary task, the variance of global attention value distribution on long distance video sequences is large, the importance score of generating key frames is large, and the semantic coherence of fragments is poor due to the lack of long-range dependence on the boundary values of time series nodes. Herein, by improving the attention module, segmented local self-attention and global self-attention mechanisms are merged to acquire the key features of local and global video sequences and lower the variance of attention values. Concurrently, the bidirectional gated recurrent neural network (BiGRU) is introduced in parallel, the output is input into the enhanced classification regression module, and afterward, the results are additively fused. Lastly, nonmaximum suppression and kernel temporal segmentation methods are applied to filter fragments and segment them into high-quality representative shots. The final summary is created by the knapsack combinatorial optimization algorithm. The video summary model LG-RU, which integrates the multiscale attention mechanism and BiGRU, is developed and compared with TvSum and SumMe’s standard and enhanced data sets. It is demonstrated that the model has a higher F-score, which verifies that this model can complete the video summary robustly while preserving high accuracy.

     

  • 视频摘要是通过分析视频的结构和内容剔除存在的时空冗余,从原始视频中提取具有高代表性的片段帧[1],并将帧拼接形成连贯视频摘要。视频摘要按照学习方式主要分为两类:无监督和有监督学习。

    无监督的视频摘要方法大多是基于非深度学习的,该类方法主要利用聚类或者字典学习的思想将视频摘要看作子集选择问题进行优化,获取帧的重要性分数。文献[2]通过建模字典学习实现视频摘要,随后又将其化为子集选择问题。但无监督的算法没有考虑视频帧间的时序信息,其评价标准采用启发式的诸如代表性、稀疏性和差异性等,评价性能较差[3-4]。虽然无监督和弱监督方法已经取得了显著的效果,但其无法从手动创建的摘要中进行学习[5]。有监督的视频摘要算法主要是采用循环神经网络来建模视频序列信息,文献[6]在视频摘要领域使用循环神经网络,并使用行列式点过程作为补充以增强视频摘要的多样性,但是该模型常常难以处理较长的视频序列,部分信息会在长距离的传输过程中丢失。文献[7]使用长短期记忆网络(long short-term memory,LSTM)和强化学习实现视频摘要技术,设计了奖励函数评估生成摘要的多样性和代表性,但由于其对帧级特征关注方式与人类感知存在较大差异导致其对帧级分数评估不准确。随着注意力机制的提出,文献[8]最先将注意力机制引入到视频摘要方法中,并提出融合视觉和听觉的注意力模型。随后的大量工作都是在其基础上改进的,文献[9]提出基于视觉注意力的自适应关键帧提取模型,模拟人的高层感知提取底层特征,将光流计算出的运动信息作为动态注意力,定义感兴趣的物体为静态注意力。

    文献[10]发现传统光流进行显著性挖掘计算复杂度高,遂采用时序的梯度来建模动态显著性。但早期的注意力模型[6-11]获取的都是视频底层特征,易受噪声干扰,且大都需要计算光流,计算复杂度较高[12]。随着深度学习的发展,基于注意力机制的视频摘要也愈发成熟,通过将注意力机制和其他领域模块结合进行了许多尝试。文献[13]通过融合单向LSTM和注意力机制提出了新的编解码器网络,较好地解决了长序列视频信息丢失问题;文献[14]提出了一种新的视频摘要模型,使用自注意力机制来建模不同视频帧之间的关系与以前的模型相比,其更加简单并且容易并行化,使用可学习的自我注意机制来模拟帧的依赖关系;文献[1215-16]将自注意力与强化学习结合,通过自注意力机制建模视频帧的重要程度,提高了模型的学习效率;文献[17]将注意力机制和随机森林回归结合,加权融合二者的损失从而提高了摘要结果的准确性,但容易过拟合;文献[18]提出了利用IndRNN(independently recurrent neural network)和单层注意力机制分别作为宽度组件和深度组件,加权融合了低级特征和时间依赖。以上方法[12-18]对比于过往模型虽然有了较大提升并取得了不错的效果,但都是采用的单向独立循环神经网络以及单层的注意力机制,一方面不能得到具有双向的长程依赖信息,另一方面不能获得更细致的变换场景下的局部特征,且在片段预测阶段使用的筛选镜头方法单一,无法很好地预测镜头边界。文献[19]选择基于排序学习的方法,将把视频摘要的提取等价为视频帧对视频内容表示的相关度排序问题,但忽略了部分的上下文联系,缺乏时序性。文献[5]在首次将目标检测中的锚框应用于视频摘要片段预测中,在镜头选择阶段使用非极大值抑制模型帮助筛选关键镜头,提出了一种新的视频摘要模型基于无锚框的视频摘要网络(anchor free detect to summarize network,AF-DSNet)。但其在特征处理过程中的全局注意力机制在长距离的视频上性能下降,注意力值的方差较大,远距离视频帧之间的依赖性关注度较低[11],且得到的特征序列的时序性仍然较差。

    本研究针对全局自注意力机制导致的注意力权重分布的方差较大问题以及片段边界值仍缺乏时间长程依赖信息的问题,提出了一种结合多层注意力机制和双向门控循环网络的视频摘要模型(local and global attentions combine with the BiGRU,LG-RU),该模型的核心在于改用多尺度注意力机制和BiGRU网络的特征进行加性融合,并在镜头筛选过程中使用非极大值抑制算法过滤低质量片段。在多层注意力机制模块中,通过融合局部、全局2种不同粒度的注意力以及残差输入得到探索具有视频局部和全局依赖关系的序列,从而获得更加准确的帧重要性分数;在BiGRU网络中得到视频的长程时序依赖关系。和传统的方法相比,本模型采用BiGRU而非传统循环神经网络,在保证精度的情况下优化了训练中反向传播的计算效率,且体量更小。在特征处理阶段,通过调整注意力模块和双向门控循环网络模块特征所占比例,有效的加权结合了二者优点,并通过视频重要性分数等信息筛选镜头,得到了更具代表性和时序关系的摘要。

    本研究所提出的模型——LG-RU模型的基本结构如图1所示。特征提取阶段使用GoogleNet进行视频帧的特征提取;在多尺度注意力模块中,将特征序列输入到一个全局注意力模块中得到全局特征信息;同时将特征输入分割为等长的N段输入到N个局部多头注意力模块中,从而获得分段内的分段注意力权重;通过将分段注意力权重、全局注意力权重和残差输入进行加性融合得到视频的全局依赖关系;选用BiGRU网络用于对视频的时序关系进行建模。分别通过分类回归得到帧级相关信息,再将建模后的长程依赖信息与注意力模块输出信息进行加权融合,利用NMS算法[20]筛选视频段以及用KTS算法[21]分割视频段得到镜头,最后通过动态规划算法选取关键镜头形成摘要。

    图  1  LG-RU网络结构
    Fig.  1  Main structure of the LG-RU
    下载: 全尺寸图片

    在输入视频序列Tin之后,使用预训练后的GoogleNet提取得到视频的特征序列T

    由文献 [22]工作可知,由于加性注意力机制没有考虑到输入序列的内部关系和点积注意力机制在输入向量维度较高时会有较高的方差,遂本研究采用缩放点积注意力机制来实现。在经过特征提取得到输入序列T=(t1, t2,…, tn)后,在正向传播过程中根据输入序列生成Query、Key、Value 3个序列,首先计算序列中的元素查询qi和每个键ki的注意力得分ei,计算公式如下

    $$ {\boldsymbol{e}}_i{\text{ }} = \frac{{{\boldsymbol{q}}_i^{\rm{T}}{{{k}}_i}}}{{\sqrt {d_k} }} $$ (1)

    其中,dk为序列维度数。再用Softmax函数对其进行归一化处理,得到ki的权重αi

    $$ {\boldsymbol{\alpha }}_i{\text{ }} = {{\rm{Softmax}}} ({\boldsymbol{e}}_i) $$ (2)

    最后将权重αi和对应的值vi加权求和得到注意力的输出,函数为

    $$\mathrm{Scaleattention}(Q,K,V)=\sum_{i}^{N}{\boldsymbol{a}}_{i}{\boldsymbol{v}}_{i} $$ (3)

    本研究改进了AF-DSNet的原有方法,提出一种新的多尺度注意力机制模块LG,在自注意力模块中,通过结合局部、全局注意力模块以及残差输入,特征融合方法选用加性融合,得到注意力模块的解码序列,如图2所示。在特征分割模块中,将序列T按固定长度n进行分段分割,得到分割段数N

    图  2  LG注意力模块示意
    Fig.  2  Diagram of LG attention module
    下载: 全尺寸图片
    $$ \left\{ \begin{gathered} N = 1,\;T \in (0,{{n}}) \\ N = T \div n + 1,\;T \in (n, + \infty ),\;R \ne 0 \\ N = T \div n,\;T \in (n, + \infty ),\;R = 0 \\ \end{gathered} \right. $$ (4)

    式中:

    $$ R = T {\text{%}} n $$ (5)

    其中,%为取余计算。

    通过对特征序列计算,得到局部注意力分段序列Si,将N个局部分段Si进行拼接得到局部序列S,其计算公式为

    $$ {\boldsymbol{S}} = {\rm{cat}}\left( {{{\boldsymbol{S}}_1},{{\boldsymbol{S}}_2}, \cdots ,{{\boldsymbol{S}}_N}} \right) $$ (6)

    同样地得到全局注意力序列W。根据本研究提出的序列计算方法为结合局部、全局注意力模块以及残差输入,注意力模块最终得到的视频序列X

    $$ {{X}} = {{W}} + {{T}} + {{S}} $$ (7)

    本研究在原AF-DSNet基础骨干之上增添了双向门控循环网络模块,用于建模序列的时序依赖。在双向门控循环网络模块中,选用BiGRU对输入序列T=(t1, t2,…, tn)进行处理,将序列T同时输入到正向与反向GRU中,分别得到正反向状态序列YiaYib,将2个状态序列连接得到每帧的前后向信息${\boldsymbol{Y}}_{\boldsymbol{i}}=\left[{\boldsymbol{Y}}_{{i}}^{{a}}\;\;\;{\boldsymbol{Y}}_{{i}}^{{b}}\right]^{\rm{T}} $,每帧的信息构成了输出序列Y=(Y1, Y2,…, Yn)。

    本研究改进AF-DSNet的分类回归网络提出了重要性边界网络ICB-Net(important,central and boundary net,ICB-Net),主要由共享的全连接层、ReLu、随机失活、层归一化以及3个并列的输出分支构成,得到重要性分数是S、中心度分数V和边界值δ,如图3所示。其中,中心度分数V指的是预测帧与真实片段(ground truth)中心的偏移量,偏移量越低说明预测帧的位置越准确,其与重要性分数的乘积作为置信度分数可以作为衡量条件,用于动态规划步骤中协助筛选关键镜头;而边界值是通过监督学习视频帧的边界值二维向量来得到预测帧的左右边界值,其表示了预测帧与真实片段边界的偏移量,用于确定片段在时序序列线上的边界。此外,以上得到的帧级相关信息将在非极大值模块筛选冗余片段时作为参数输入。

    图  3  ICB-Net结构
    Fig.  3  ICB-Net structure
    下载: 全尺寸图片

    注意力模块和BiGRU模块结果序列分别输入到ICB-NET中,得到2个模块的结果分别为重要性分数序列SaSb,中心度分数序列VaVb,边界值序列δaδb

    $$ \begin{gathered} {{\boldsymbol{S}}_a},{{\boldsymbol{V}}_a},{{\boldsymbol{\delta}} _a} = {\rm{ICBNET}}({\boldsymbol{X}}) \\ {{\boldsymbol{S}}_b},{{\boldsymbol{V}}_b},{{\boldsymbol{\delta}} _b} = {\rm{ICBNET}}({\boldsymbol{Y}}) \\ \end{gathered} $$ (8)

    式中,SaSbVaVbδaδb分别为注意力模块和双向门控循环网络模块各自的重要性分数、中心度分数以及边界值:

    $$ \begin{gathered} {{\boldsymbol{S}}_{{i}}}{{ = }}\alpha {{\boldsymbol{S}}_{{a}}}{{ + }}\beta {{\boldsymbol{S}}_{{b}}} \\ {{\boldsymbol{V}}_{{i}}}{{ = }}\alpha {{\boldsymbol{V}}_{{a}}}{{ + }}\beta {{\boldsymbol{V}}_{{b}}} \\ {{\boldsymbol{\delta}} _{{i}}}{{ = }}\alpha {{\boldsymbol{\delta}} _{{a}}}{{ + }}\beta {{\boldsymbol{\delta}} _{{b}}} \\ \alpha {{ + }}\beta {{ = 1}} \end{gathered} $$ (9)

    式中:αβ为超参数,训练过程中不断的手动调整αβ来优化模型,在α=0.4,0.7时在SumMe和TvSum上分别取得最优值,后续试验部分对此进行了验证。

    1.3.1   损失计算

    在损失函数的选择上,通过计算均方误差损失(mean square error loss)和计算tIoU函数得到损失L1L2,再利用二元交叉熵(binary cross entropy,BCE)损失Lcenter计算中心度损失L3,其计算公式为

    $$ {L_3} = \frac{1}{N}\sum\limits_e {{L_{{\rm{center}}}}({V_e},V_e^*)} $$ (10)

    将中心度分数Ve和原始中心度分数$V_e^* $作为参数,其中原始中心度分数计算为

    $$ V_e^* = \frac{{\min (\delta _l^*,\delta _r^*)}}{{\max (\delta _l^*,\delta _r^*)}} $$ (11)

    式中:$\delta _l^* $$\delta _r^* $分别代表第e个关键帧的左右边界。

    并最终将3部分损失加权相加得到最终的损失量L

    $$ L = {L_1} + \lambda {L_2} + \gamma {L_3} $$ (12)

    通过调整超参数λγ的值来获得最佳的效果。

    1.3.2   关键镜头选择

    本研究将阈值方法用于过滤视频,通过阈值筛选去除视频冗余片段,以期得到高质量的片段集合。该方法考虑重要性得分$ S = ({S _1},{S _2}, \cdots , {S _n}) $及帧间相似度$S_{{\rm{im}}} = (S_{{{\rm{im}}}_1},S_{{{\rm{im}}}_{2}} ,\cdots ,S_{{{\rm{im}}}_{{_{n - 1}}}})$,其中$S_{{{\rm{im}}}_i}$的计算为

    $$ S_{{{\rm{im}}}_{i}} = \frac{{{X_i} \cdot {X_{i + 1}}}}{{\left\| {{X_i}} \right\| \times \left\| {{X_{i + 1}}} \right\|}} $$ (13)

    过滤与已选视频帧相似度高于阈值的视频帧,使得筛选出的视频片段集C具有高重要性得分的同时保持不同关键帧之间更低的相似度。

    由1.2小节,模块得到了序列的重要性分数S、中心度分数V和边界值δ后,再通过非极大值抑制过滤低质量冗余片段,得到拥有起始时间片段的片段集C

    $$ C = {{\rm{filter}}} ({{S}},{{V}},\delta ,{{S}}_{{\rm{im}}}) $$ (14)

    利用基于核的时序分割变化点检测模型(kernel temporal segmentation, KTS)对视频片段进行转换成为镜头,来估计其重要性分数。镜头级重要性分数由该视频段内所有帧的重要性分数累加取平均,其计算公式为

    $$ {y_h} = \frac{1}{{{n_h}}}\sum\limits_{r = 1}^{{n_h}} {S_h^r} $$ (15)

    式中:nh是第h个镜头的长度;$S_h^r $是第r个视频帧的重要性分数。

    $$ \max \sum\limits_{h = 1}^c {{u_h}{y_h},\;\;{\rm{s.t.}}\sum\limits_{h = 1}^c {{u_h}{n_h} \leqslant 15\% \times L_{{\rm{en}}}} } $$ (16)

    式中:uh取0或1,表示第h个视频镜头是否被选择;c是镜头数量;Len是原始视频的长度,根据文献[12]的工作,生成摘要的长度限制为原始视频长度的15%。随后通过动态规划模型选择关键镜头从而得到最终的视频摘要。

    2.1.1   数据集

    本研究试验使用了4个公开的视频数据集,SumMe[23]、TvSum[24]、OVP[25]和YouTube[26],数据集视频主要由节假日介绍、美食制作、体育运动等类型组成。其中后两者用于提高训练的数据集规模。帧级重要性分数为视频帧评分,数值为0~1,数据集中的重要性分数由若干人打分加权求取。由于OVP和YouTube数据集的标注信息是关键帧,将关键帧设置为正类1,非关键帧设置为负类0进行试验。标准数据集信息如表1所示。

    表  1  标准数据集信息
    Table  1  Standard data set information
    数据集视频数量视频长度/min标注信息
    SumMe251~6.5重要性分数
    TvSum501~10重要性分数
    OVP501~4关键帧
    YouTube251~6.5关键帧
    2.1.2   评价指标

    本研究遵循前人工作评估方法,采用F-score来评估模型的优劣。设K为模型生成的摘要,G为人工标注的摘要,其重叠部分设为O,如图4所示。

    图  4  人工标注摘要和预测摘要重叠部分
    Fig.  4  Overlap of manual annotated summary and predicted summary
    下载: 全尺寸图片

    准确率(Precesion)和召回率(Recall)的计算公式如下

    $$ P_{{\rm{recesion}}} = \frac{O}{S},\;\;R_{{\rm{ecall}}} = \frac{O}{G} $$ (17)

    根据准确率和召回率可以计算出F-score(Fscore)的值。

    $$ {F_{{\rm{score}}}} = {\text{2}} \times \frac{{P_{{\rm{recesion}}} \times R_{{\rm{ecall}}}}}{{P_{{\rm{recesion}}} + R_{{\rm{ecall}}}}} $$ (18)

    为验证本研究提出的序列分割方法,将分割长度和融合方法作为变量在2个标准数据集上进行了试验,结果如表2表3所示。

    表  2  SumMe数据集下不同分段长度下F-score值的大小
    Table  2  F-Score values of different segment lengths in SumMe dataset %
    融合方法分段长度/帧
    100200400
    加性融合49.8751.8448.36
    乘性融合48.6149.3146.37
    最大池化49.3650.1248.33
    平均池化50.4250.8549.13
    注:黑体代表最优结果,下同。
    表  3  TvSum数据集下不同分段长度下F-score值的大小
    Table  3  F-Score values of different segment lengths in TvSum dataset %
    融合方法分段长度/帧
    100200400
    加性融合60.9262.1859.44
    乘性融合58.7959.1256.52
    最大池化59.2860.7358.40
    平均池化60.3861.5257.95

    通过试验得出,在特征分割模块中,由式(4)中分段函数计算方式,当视频分段长度m取值为200帧时,本研究提出模型的评估指标F-score取得最优;当m取其他值时,会导致分割视频分段数量过多或过少,影响最终摘要的生成。

    表4给出了最新的若干视频摘要模型的对比结果,数据均来源于原论文。在标准模式中,训练集、验证集、测试集都是来自同一种数据集;而在增强模式中,对于某种数据集,随机20%的数据用于测试,将该数据集剩下80%的数据和另外3种数据集共同构成训练集和验证集,相比于标准模式,该模式扩大了数据集的规模。根据表4数据,本模型LG-RU在TvSum和SumMe原始和增强数据集上均有较好效果。对比现有的视频摘要模型,LG-RU具更好的表现。1)TvSum数据集视频具有更长视频信息,更频繁的场景变换,LG-RU中的BiGRU可以提取更多长距离上下文依赖关系;2)SumMe数据集多为视频内容变化缓慢的单镜头原始视频,多层自注意力机制中不同粒度的自注意力模块可以很好地提取其内在关系和全局关系,减少了视频帧距离过长导致的注意力值方差过大问题;3)LG-RU模型在镜头筛选中采用的非极大值抑制(non-maximum suppression,NMS)模型筛除了帧级分数差异较大的劣质片段。由图5可以看到,使用LG注意力模块前后的热力图变化,也反映了注意力分数的变化,使用LG模块之后的注意力分数评估的准确度有显著提升。是由于原有的注意力机制在对关键帧的注意力分数打分的过程中,对于时间线上距离相隔较远的帧仍有权重分配,导致关键帧的分值受到较远帧的权重影响,增加了注意力分数的方差,降低了关键帧上注意力分数的准确性。而引入LG模块的动机是从序列中选取好的局部,并非仅为每个帧分配一个全局权重,而是从局部入手,局部分配权重再加权求和得到更准确的注意力分数,优化了关键帧注意力分数的打分过程,提高了重要性分数的评估准确度。

    表  4  与当前先进摘要模型F-score对比
    Table  4  Comparing with the F-score of the current advanced summary model %
    模型名称TvSum SumMe
    标准增强标准增强
    AF-DSNet[5]61.962.2 51.253.3
    vsLSTM[6]54.257.937.641.6
    dppLSTM[6]54.759.638.642.9
    DR-DSN[7]58.159.842.143.9
    A-AVS[11]59.460.843.944.6
    M-AVS[11]61.061.844.446.4
    VASNet[13]61.462.449.751.1
    WD-SN[18]61.1961.9648.3449.13
    GMPAVS[26]61.7362.5249.9252.15
    ALRSN[27]61.8663.0650.7152.61
    LG-RU62.1863.2551.8454.01
    图  5  LG模块使用前后GradCAM热力图
    Fig.  5  LG module uses front and rear GradCAM heat maps
    下载: 全尺寸图片

    视频20(video-20)的主要内容为炸鸡芝士汉堡的烹饪过程,视频42(video-42)的主要内容为一对兄弟展示杂技摩托秀。图6中“真实分数”为人工标注摘要得分,“预测分数”为LG-RU模型预测得分,可以看出2条曲线之间的重要性分数趋势大致一致,并且模型预测曲线对于关键帧打分更高。这说明LG-RU模型可以很好地模仿人工标注方式,有效地识别关键镜头。

    图  6  人工标注摘要和LG-RU预测摘要打分对比
    Fig.  6  Comparison of scoring between manual annotated abstracts and LG-RU predicted abstracts
    下载: 全尺寸图片

    图7给出了模型视频摘要的结果,图中柱状条为人工标注摘要重要性分数,蓝色柱状条为通过LG-RU模型后选择出的关键镜头,以上镜头基本包含了活动事件的开头、高潮和结尾部分,并且所选镜头分数基本是高重要性分数镜头。式(9)中αβ影响着权重特征的融合,进而影响视频帧重要性分数判定,影响摘要的生成。

    图  7  LG-RU模型对视频进行摘要的结果
    Fig.  7  Results of video summarization by LG-RU model
    下载: 全尺寸图片

    图8为不同αβ下LG-RU模型在TvSum数据集和SumMe数据集上的F-score值变化图,通过对比试验,在α=0.4,β=0.6时在TvSum数据集上取得最佳效果值0.6325;在α=0.7,β=0.3时在SumMe数据集上取得最佳效果值0.5401。

    图  8  参数αβ在不同数据集上对F-score值的影响
    Fig.  8  Influence of parameters α and β on F-score in different datasets
    下载: 全尺寸图片

    图9给出了式(11)中λγ在不同数据集上对F-score值的影响,通过试验数据表明,在λ=1.2且γ=0.9时取得最佳效果。

    图  9  参数λγ在不同数据集上对F-score值的影响
    Fig.  9  Influence of parameters λ and γ on F-score in different datasets
    下载: 全尺寸图片

    表5给出了循环神经网络模块中分别选用LSTM、BiLSTM以及BiGRU网络的不同效果,可以看到,在增强数据集上,选取BiGRU,在TvSum和SumMe数据集上都得到了更好的效果。在BiGRU取得更好效果的原因在于其双向机制以及轻量化结构,其取得的具有时序信息的特征序列还包含了前后向的语义指导信息,使得对于视频的理解更具有类人处理方式,通过前后向信息共同指导关键帧选择,从而影响了镜头选择,获得更加接近标注的结果。

    表  5  不同循环神经网络选择的F-score值
    Table  5  F-score values selected by different recurrent neural networks %
    网络选择TvSumSumMe
    LSTM61.5452.08
    BiLSTM62.0853.74
    BiGRU63.2554.01

    为验证各模块的有效性,本研究基于TvSum和SumMe数据集进行消融试验,如表6所示。模型采用AF-DSNet作为骨干网络,超参数取最佳值,在保留其他代码细节不变的情况下,引入LG注意力模块、BiGRU模块和ICB-Net模块。根据表中数据,本研究方法对比当前最先进的方法AF-DSNet,在2个标准数据集上分别提高了0.28%和0.64%,并在其2个增强数据集上提高了1.05%和0.71%,结果表明本模型取得了更高的F-score分数,证实了本模型保持高准确率的同时可鲁棒地对视频完成摘要。

    表  6  不同模块在TvSum和SumMe数据集上消融试验的F-score值
    Table  6  F-score values for ablation experiments of different modules on the TvSum and SumMe datasets %
    模块名称TvSumSumMe
    LGBiGRUICB-Net标准增强标准增强
    61.9862.1349.2553.49
    61.8362.0749.7753.32
    61.9662.1749.1853.34
    62.1162.3350.8953.76
    62.0862.3150.7353.51
    61.9862.2850.8153.63
    61.962.251.253.3
    62.1863.2551.8454.01

    对于视频摘要生成任务,本研究提出了一个多层自注意力机制和双向门控循环网络结合的视频摘要模型,通过多层自注意力机制获取序列的全局和局部特征信息,加权融合经过双向门控循环网络得到的具有长程时间依赖的信息,有效地结合两部分模型的长处,利用非极大值抑制算法过滤片段,最终提高模型选择镜头的准确性。试验证明了该方法的有效性和可行性,但该方法仅在常规的数据集下训练验证,期望能在未来工作中拓展范围,扩大影响。

  • 图  1   LG-RU网络结构

    Fig.  1   Main structure of the LG-RU

    下载: 全尺寸图片

    图  2   LG注意力模块示意

    Fig.  2   Diagram of LG attention module

    下载: 全尺寸图片

    图  3   ICB-Net结构

    Fig.  3   ICB-Net structure

    下载: 全尺寸图片

    图  4   人工标注摘要和预测摘要重叠部分

    Fig.  4   Overlap of manual annotated summary and predicted summary

    下载: 全尺寸图片

    图  5   LG模块使用前后GradCAM热力图

    Fig.  5   LG module uses front and rear GradCAM heat maps

    下载: 全尺寸图片

    图  6   人工标注摘要和LG-RU预测摘要打分对比

    Fig.  6   Comparison of scoring between manual annotated abstracts and LG-RU predicted abstracts

    下载: 全尺寸图片

    图  7   LG-RU模型对视频进行摘要的结果

    Fig.  7   Results of video summarization by LG-RU model

    下载: 全尺寸图片

    图  8   参数αβ在不同数据集上对F-score值的影响

    Fig.  8   Influence of parameters α and β on F-score in different datasets

    下载: 全尺寸图片

    图  9   参数λγ在不同数据集上对F-score值的影响

    Fig.  9   Influence of parameters λ and γ on F-score in different datasets

    下载: 全尺寸图片

    表  1   标准数据集信息

    Table  1   Standard data set information

    数据集视频数量视频长度/min标注信息
    SumMe251~6.5重要性分数
    TvSum501~10重要性分数
    OVP501~4关键帧
    YouTube251~6.5关键帧

    表  2   SumMe数据集下不同分段长度下F-score值的大小

    Table  2   F-Score values of different segment lengths in SumMe dataset %

    融合方法分段长度/帧
    100200400
    加性融合49.8751.8448.36
    乘性融合48.6149.3146.37
    最大池化49.3650.1248.33
    平均池化50.4250.8549.13
    注:黑体代表最优结果,下同。

    表  3   TvSum数据集下不同分段长度下F-score值的大小

    Table  3   F-Score values of different segment lengths in TvSum dataset %

    融合方法分段长度/帧
    100200400
    加性融合60.9262.1859.44
    乘性融合58.7959.1256.52
    最大池化59.2860.7358.40
    平均池化60.3861.5257.95

    表  4   与当前先进摘要模型F-score对比

    Table  4   Comparing with the F-score of the current advanced summary model %

    模型名称TvSum SumMe
    标准增强标准增强
    AF-DSNet[5]61.962.2 51.253.3
    vsLSTM[6]54.257.937.641.6
    dppLSTM[6]54.759.638.642.9
    DR-DSN[7]58.159.842.143.9
    A-AVS[11]59.460.843.944.6
    M-AVS[11]61.061.844.446.4
    VASNet[13]61.462.449.751.1
    WD-SN[18]61.1961.9648.3449.13
    GMPAVS[26]61.7362.5249.9252.15
    ALRSN[27]61.8663.0650.7152.61
    LG-RU62.1863.2551.8454.01

    表  5   不同循环神经网络选择的F-score值

    Table  5   F-score values selected by different recurrent neural networks %

    网络选择TvSumSumMe
    LSTM61.5452.08
    BiLSTM62.0853.74
    BiGRU63.2554.01

    表  6   不同模块在TvSum和SumMe数据集上消融试验的F-score值

    Table  6   F-score values for ablation experiments of different modules on the TvSum and SumMe datasets %

    模块名称TvSumSumMe
    LGBiGRUICB-Net标准增强标准增强
    61.9862.1349.2553.49
    61.8362.0749.7753.32
    61.9662.1749.1853.34
    62.1162.3350.8953.76
    62.0862.3150.7353.51
    61.9862.2850.8153.63
    61.962.251.253.3
    62.1863.2551.8454.01
  • [1] 冀中, 江俊杰. 基于解码器注意力机制的视频摘要[J]. 天津大学学报(自然科学与工程技术版), 2018, 51(10): 1023–1030.

    JI Zhong, JIANG Junjie. Video summarization based on decoder attention mechanism[J]. Journal of Tianjin University (science and technology edition), 2018, 51(10): 1023–1030.
    [2] ELHAMIFAR E, VIDAL R. Sparse subspace clustering: algorithm, theory, and applications[J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(11): 2765–2781. doi: 10.1109/TPAMI.2013.57
    [3] ELHAMIFAR E, SAPIRO G, SASTRY S S. Dissimilarity-based sparse subset selection[J]. IEEE transactions on pattern analysis and machine intelligence, 2016, 38(11): 2182–2197. doi: 10.1109/TPAMI.2015.2511748
    [4] ELHAMIFAR E, DE PAOLIS KALUZA M C. Subset selection and summarization in sequential data[M]. [S.l.]: Advances in Neural Information Processing Systems, 2017, 30.
    [5] ZHU Wencheng, LU Jiwen, LI Jiahao, et al. DSNet: a flexible detect-to-summarize network for video summarization[J]. IEEE transactions on image processing, 2021, 30: 948–962. doi: 10.1109/TIP.2020.3039886
    [6] ZHANG Ke, CHAO Weilun, SHA Fei, et al. Video summarization with long short-term memory[M]//Computer Vision-ECCV 2016. Cham: Springer International Publishing, 2016: 766-782.
    [7] ZHOU Kaiyang, QIAO Yu, XIANG Tao. Deep reinforcement learning for unsupervised video summarization with diversity-representativeness reward[C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto: AAAI Press, 2018: 7582-7589.
    [8] MA Yufei, LU Lie, ZHANG Hongjiang, et al. A user attention model for video summarization[C]//Proceedings of the tenth ACM International Conference on Multimedia. New York: ACM, 2002: 533-542.
    [9] JIANG Peng, QIN Xiaolin. Keyframe-based video summary using visual attention clues[J]. IEEE MultiMedia, 2010, 17(2): 64–73.
    [10] EJAZ N, MEHMOOD I, BAIK S W. Efficient visual attention based framework for extracting key frames from videos[J]. Signal processing:image communication, 2013, 28(1): 34–44. doi: 10.1016/j.image.2012.10.002
    [11] ZHU Wencheng, LU Jiwen, HAN Yucheng, et al. Learning multiscale hierarchical attention for video summarization[J]. Pattern recognition, 2022, 122: 108312. doi: 10.1016/j.patcog.2021.108312
    [12] 李依依, 王继龙. 自注意力机制的视频摘要模型[J]. 计算机辅助设计与图形学学报, 2020, 32(4): 652–659.

    LI Yiyi, WANG Jilong. Self-attention based video summarization[J]. Journal of computer-aided design & computer graphics, 2020, 32(4): 652–659.
    [13] JI Zhong, XIONG Kailin, PANG Yanwei, et al. Video summarization with attention-based encoder–decoder networks[J]. IEEE transactions on circuits and systems for video technology, 2020, 30(6): 1709–1717. doi: 10.1109/TCSVT.2019.2904996
    [14] FAJTL J, SOKEH H S, ARGYRIOU V, et al. Summarizing videos with attention[M]//Computer Vision-ACCV 2018 Workshops. Cham: Springer International Publishing, 2019: 39-54.
    [15] MAHASSENI B, LAM M, TODOROVIC S. Unsupervised video summarization with adversarial LSTM networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 2982-2991.
    [16] LEI Jie, LUAN Qiao, SONG Xinhui, et al. Action parsing-driven video summarization based on reinforcement learning[J]. IEEE transactions on circuits and systems for video technology, 2019, 29(7): 2126–2137. doi: 10.1109/TCSVT.2018.2860797
    [17] 李雷霆, 武光利, 郭振洲. 自注意力机制和随机森林回归的视频摘要生成[J]. 计算机工程与应用, 2022, 58(4): 198–205. doi: 10.3778/j.issn.1002-8331.2104-0388

    LI Leiting, WU Guangli, GUO Zhenzhou. Video summarization generation based on self-attention mechanism and random forest regression[J]. Computer engineering and applications, 2022, 58(4): 198–205. doi: 10.3778/j.issn.1002-8331.2104-0388
    [18] ZHOU Juanping, LU Lu. Wide and deep learning for video summarization via attention mechanism and independently recurrent neural network[C]//2020 Data Compression Conference. Snowbird: IEEE, 2020: 407.
    [19] 王鈃润, 聂秀山, 杨帆, 等. 基于排序学习的视频摘要[J]. 智能系统学报, 2018, 13(6): 921–927. doi: 10.11992/tis.201806013

    WANG Xingrun, NIE Xiushan, YANG Fan, et al. Video summarization based on learning to rank[J]. CAAI transactions on intelligent systems, 2018, 13(6): 921–927. doi: 10.11992/tis.201806013
    [20] XU Huijuan, DAS A, SAENKO K. Two-stream region convolutional 3D network for temporal activity detection[J]. IEEE transactions on pattern analysis and machine intelligence, 2019, 41(10): 2319–2332. doi: 10.1109/TPAMI.2019.2921539
    [21] POTAPOV D, DOUZE M, HARCHAOUI Z, et al. Category-specific video summarization[M]//Computer Vision-ECCV 2014. Cham: Springer International Publishing, 2014: 540−555.
    [22] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C] //Proceedings of the 31st International Conference on Advances in Neural Information Processing Systems. New York: Curran Associates, Inc, 2017: 5998-6008.
    [23] GYGLI M, GRABNER H, RIEMENSCHNEIDER H, et al. Creating summaries from user videos[M]//Computer Vision-ECCV 2014. Cham: Springer International Publishing, 2014: 505−520.
    [24] SONG Yale, VALLMITJANA J, STENT A, et al. TVSum: Summarizing web videos using titles[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 5179−5187.
    [25] DE AVILA S E F, LOPES A P B, DA LUZ A, et al. VSUMM: a mechanism designed to produce static video summaries and a novel evaluation method[J]. Pattern recognition letters, 2011, 32(1): 56–68. doi: 10.1016/j.patrec.2010.08.004
    [26] 王坤阳, 高伟, 滕国伟. 基于门控多头注意力机制的视频摘要[J]. 工业控制计算机, 2022, 35(12): 120–122. doi: 10.3969/j.issn.1001-182X.2022.12.045

    WANG Kunyang, GAO Wei, TENG Guowei. Video summarization based on gated multi-head attention mechanism[J]. Industrial control computer, 2022, 35(12): 120–122. doi: 10.3969/j.issn.1001-182X.2022.12.045
    [27] 梅锋, 周娟平, 陆璐. 结合局部奖励机制的视频摘要技术研究[J]. 计算机工程与应用, 2021, 57(11): 211–218. doi: 10.3778/j.issn.1002-8331.2003-0331

    MEI Feng, ZHOU Juanping, LU Lu. Research on video summarization technology combining local reward mechanism[J]. Computer engineering and applications, 2021, 57(11): 211–218. doi: 10.3778/j.issn.1002-8331.2003-0331
WeChat 点击查看大图
图(9)  /  表(6)
出版历程
  • 收稿日期:  2022-09-23
  • 录用日期:  2023-11-14
  • 网络出版日期:  2023-11-14

目录

    /

    返回文章
    返回