«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2021, Vol. 16 Issue (4): 801-810  DOI: 10.11992/tis.202007042
0

引用本文  

董俊杰, 刘华平, 谢珺, 等. 基于反馈注意力机制和上下文融合的非模式实例分割[J]. 智能系统学报, 2021, 16(4): 801-810. DOI: 10.11992/tis.202007042.
DONG Junjie, LIU Huaping, XIE Jun, et al. Feedback attention mechanism and context fusion based amodal instance segmentation[J]. CAAI Transactions on Intelligent Systems, 2021, 16(4): 801-810. DOI: 10.11992/tis.202007042.

基金项目

山西省自然科学基金项目(201801D121144,201801D221190);辽宁省科技厅机器人技术国家重点实验室联合基金项目(2020-KF-22-06)

通信作者

刘华平. E-mail:hpliu@tsinghua.edu.cn

作者简介

董俊杰,硕士研究生,主要研究方向为智能信息处理、计算机视觉和图像识别;
刘华平,副教授,博士生导师,IEEE Senior Member、中国人工智能学会理事、中国人工智能学会认知系统与信息处理专业委员会秘书长。主要研究方向为机器人感知、学习与控制、多模态信息融合。发表学术论文340余篇;
谢珺,副教授,主要研究方向为粗糙集、粒计算、数据挖掘和智能信息处理

文章历史

收稿日期:2020-07-24
网络出版日期:2021-05-07
基于反馈注意力机制和上下文融合的非模式实例分割
董俊杰 1, 刘华平 2, 谢珺 1, 续欣莹 3, 孙富春 2     
1. 太原理工大学 信息与计算机学院,山西 晋中 030600;
2. 清华大学 智能技术与系统国家重点实验室,北京 100084;
3. 太原理工大学 电气与动力工程学院,山西 太原 030024
摘要:非模式实例分割是最近提出的对实例分割的扩展,其任务是对每个对象实例的可见区域和被遮挡区域都进行预测,感知完整的物理结构和语义概念。在预测对象被遮挡部分的形状和语义时,往往由于特征表示的识别能力不够和对上下文信息缺乏而导致对遮挡区域预测欠拟合甚至错误。针对这个问题,提出一个上下文注意模块和反馈注意力机制的特征金字塔结构,引入反馈连接进行再学习。该方法能够有效捕获全局语义信息和精细的空间细节,通过在COCO-amodal数据集训练和验证,非模式实例分割掩码平均精确率从8.4%提高到14.3%,平均召回率从16.6%提高到20.8%。实验结果表明,该方法能够显著提高对物体被遮挡部分预测的准确率,有效解决欠拟合问题。
关键词非模式实例分割    遮挡预测    反馈连接    注意力机制    上下文信息    深度学习    神经网络    计算机视觉    
Feedback attention mechanism and context fusion based amodal instance segmentation
DONG Junjie 1, LIU Huaping 2, XIE Jun 1, XU Xinying 3, SUN Fuchun 2     
1. College of Information and Computer, Taiyuan University of Technology, Jinzhong 030600, China;
2. State Key Lab. of Intelligent Technology and Systems, Tsinghua University, Beijing 100084, China;
3. College of Electrical and Power Engineering, Taiyuan University of Technology, Taiyuan 030024, China
Abstract: Recently, model instance segmentation has been proposed as an extension of instance segmentation to predict the visible and occluded areas of each object instance and perceive the complete physical structure and semantic concepts. When the shapes and meanings of occluded objects are being predicted, underfitting or even wrong results are obtained in the occlusion prediction due to the insufficient recognition capability of feature representation and the lack of contextual information. To solve this problem, this paper proposes a contextual attention module and feature pyramid structure of feedback attention mechanism and introduces feedback connections for relearning. The proposed method can effectively capture global semantic information and fine spatial details. Through training and verification in the COCO-amodal dataset, the average precision of the amodal instance segmentation mask increases from 8.4% to 14.3%, and the average recall rate increases from 16.6% to 20.8%. Experimental results show that this method can significantly improve the accuracy of occlusion prediction and effectively end underfitting.
Key words: amodal instance segmentation    occlusion prediction    feedback connection    attention mechanism    context information    deep learning    neural network    computer vision    

近年来,图像分类[1-2]、目标检测[3-6]、语义分割[7-8]、实例分割[9-10]等视觉识别任务取得了巨大的进展。计算机视觉系统的性能在精度上越来越接近于甚至超过人类水平。尽管如此,人类的视觉系统具有感知物体完整物理结构的能力,即使物体在部分遮挡甚至重度遮挡的情况下也能准确预测物体的形状,这种能力被称为非模式感知[11](即amodal perception),使得人类对物体的不可见的、被遮挡的部分进行推理,针对遮挡有一定的鲁棒性,从而仅在部分可见的情况下感知物体完整形状和语义概念。

在非模式实例分割[11]的任务中,amodal masks定义为物体visible masks和occlusion masks的并集。预测amodal mask和visible mask可以加深对场景的理解;例如,非模式感知可以使自动驾驶汽车能够在视觉范围内推断出车辆和行人的整体形状,即使其中的一部分是看不见的,这能够显著降低碰撞的风险;还有机器人在拾取或放置对象时,需要知道对象是否被一个或多个其他对象所遮挡,通过对被遮挡部分的感知计算遮挡区域,然后指导机器人朝哪个方向移动或者将某些对象移除,帮助机器人获取感兴趣对象的完整结构和语义。

预测物体的不可见部分是非常具有挑战性的。一个计算机视觉系统如果要感知物体被遮挡、不可见部分的形状和语义概念,首先需要识别和定位这个物体,这涉及到了目标检测的技术;第二,需要从可见部分提供的线索去推断出物体被遮挡部分的最可能外观特征,并且为物体遮挡部分的像素进行标记,这涉及到语义分割的技术,与此同时在此过程中往往会遭受来自附近其他对象实例信息的误导;第三,实际上物体往往被多个不同的实例遮挡,这将导致被遮挡的对象会处于不同的深度顺序中,如何探索对象之间的相对深度顺序关系也给非模式感知带来很大的困难。

为了有效地完成非模式实例分割的任务,需要区分一些容易混淆的类别,并考虑不同外观的对象。我们可以粗略地将所有对象分为两类:“Things”和“Stuff”,其中“Things”是感兴趣的对象且具有相对规范的形状,例如行人、汽车等,“Stuff”可以具有相对任意的范围,例如树木、墙壁等。因此,在像素级识别中,有必要提高特征表示的识别能力,充分融合上下文信息,捕获全局特征。

研究人员基于深度神经网络对目标分割提出了一系列方法,提升了分割算法的精度和灵活性。Jonathan等[7]提出全卷积网络(fully convolutional networks,FCN),将CNN网络中的全连接层转化为卷积层,采用反卷积的方法进行上采样,并引入跳跃连接来改善上采样效果,实现对图像中的每个像素预测和分类的任务,但是FCN没有考虑像素之间的关系,导致分割精度不够;He等[9]提出了一种高效的实例分割框架—Mask-RCNN,该算法通过特征金字塔(feature pyramid network,FPN)和ROI Align层,极大地提升了算法的精度,但仍然没有考虑到卷积特征的通道和空间的上下文依赖关系;Zhang等[12]提出SLN模型,该方法完成了非模式实例分割的任务,引入一种新的表示方法即语义感知距离映射,根据物体的可见性将物体的不同区域放置在不同的层次上,进而对物体被遮挡部分预测,尽管实现了对不可见部分的感知,但是忽略了空间相关性,使算法缺乏全局上下文语义信息,很容易导致预测的欠拟合。

在识别物体的时候,人类的视觉感知通过反馈连接和注意力机制传递高级语义信息,选择性地增强和抑制神经元的激活[13]。然而非模式实例分割任务的特点是仅仅从对象的可见部分提供的线索来合理预测该对象的被遮挡部分,并且被遮挡部分的空间形状具有不确定性。通过反馈过程和注意力机制的学习建立丰富的全局上下文关系是非常有帮助的,从而根据已有的提示推断出对象最可能的外观特征。针对以上问题,受人类视觉系统的启发,为了提高非模式实例分割中特征表示的鉴别能力和充分聚合上下文信息,本文精心设计了一个反馈注意力机制的特征金字塔结构,以及在实例分割分支引入Context Attention Module。

1 相关工作 1.1 实例分割

两阶段实例分割通常将此任务描述为“先检测后分割”。它们通常先检测到边界框,然后在每个边界框的区域中执行像素分割。FCIS[14]的主要思想是利用全卷积层预测一组位置敏感的输出通道,这些通道能够同时预测对象的类别、边界框和掩码;Mask R-CNN[9]建立在Faster-RCNN基础上,只需添加一个额外的Mask分支,并使用ROI Align层代替ROI池化操作,以提高精确度;在Mask R-CNN之后,PANet[15]引入了自底向上的路径扩充、自适应特征池化和全连接融合,以提高实例分割的性能;单阶段实例分割的研究受到了单阶段目标检测器的启发,如YOLACT[10]将图像分割分成两个子任务:原型掩码(prototype masks)的生成和预测每个实例掩码的掩码系数(mask coefficients);然后,通过原型掩码和掩码系数的线性组合来生成实例掩码;TensorMask[16]研究了在密集滑动窗口上的实例分割,使用结构化的4D张量来表示空间域上的掩码;PolarMask[17]提出使用极坐标表示对掩码进行编码,并将逐像素掩码预测转换为距离回归。但这些方法都仅仅预测对象可见部分的掩码,而没有对被遮挡、不可见部分进行预测。

1.2 非模式实例分割

图像非模式实例分割的研究才刚刚起步。Zhu等[11]基于COCO原始数据集为非模式实例分割提供了一个新的开创性数据集COCO-amodal,并提出了AmodalMask模型,该模型对于提议的对象候选具有较高的召回率,实现对物体不可见部分的推理;Zhang等[12]提出的SLN模型,引入语义感知距离映射,根据物体的可见性程度将物体的不同区域放置在不同的层次上来对物体不可见部分进行预测;Li等[18]提出的amodal实例分割方法,主要通过迭代地将对象的边界框扩大到具有高热力图值的方向,并且重新计算热力图来实现对物体被遮挡部分的预测;Follmann等[19]提出ARCNN模型,该模型基于Mask RCNN,通过扩展其预测分支,分为amodal mask预测分支和visible mask预测分支,实现非模式实例分割;Ehsani等[20]试图通过生成对抗网络(GAN)来生成物体的不可见部分。

1.3 注意力机制

注意力机制可以建立长期依赖关系,提高特征表达能力,并且成为了许多具有挑战性任务的有效方法,包括图像分类、语义和实例分割等。目前视觉识别领域主要包括3种注意力机制的方式:通道注意力机制、空间注意力机制和混合注意力机制。Hu等[21]提出了SENet模型,该模型通过在卷积网络的不同通道间探索各个通道的重要程度,从而显式地建模通道之间的相互依赖关系,自适应地重新校准通道的特征响应;Wang等[22]提出的空间注意力机制利用特征图中所有位置的加权和计算出一个特征的响应,建立起像素之间的上下文依赖关系;Sanghyun等[23]提出的混合注意力机制通过融合通道和空间两种注意力机制,充分挖掘全局语义信息,极大地提升了图像识别的性能。

1.4 基于注意力机制的实例分割

实例分割试图为输入图像中的每个像素获取类和实例标签,然而组成每个实例的不同像素点之间具有紧密联系,同时有必要区分相同类别的不同实例对象,由于注意力机制可以获取全局信息,建立上下文长期依赖关系,因此一些研究引入注意力机制来提高实例分割的性能。Cao等[24]提出了GCNet,引入Context Modeling和Transform模块从而建立一个轻量级的注意力机制模型,进行全局上下文建模和捕获通道间的相互依赖,并采用逐像素加法进行特征融合,极大提高了实例分割的效率;FGNet[25]是将一般实例分割和Few-shot学习范式结合起来,在Mask-RCNN的各个关键组件中引入了不同的指导机制,包括注意力指导RPN,关系指导检测器和注意力指导FCN用于指导基本实例分割的预测,能够更好地适应类间泛化;Liu等[26]提出的Cell r-cnn v3模型属于生物医学图像领域的实例分割,包含残差注意力特征融合机制、掩码质量预测分支,前者促进实例分支中语义上下文信息的学习,后者使每个目标的置信度得分与掩码预测的质量对齐,提高了实例分割的性能。

以上方法,模仿人类视觉系统引入注意力机制,通过对全局上下文信息的建模,捕获远程长期依赖关系,使得实例分割性能显著提升;然而对于非模式的实例分割任务而言,对被遮挡、不可见区域的像素点进行语义预测则具有更大的挑战,并且由于需要对物体被遮挡部分进行补全,这将导致同一个像素点可能会分配多个标签,对提取的特征表达能力和空间细节具有更高的要求。因此,本文工作将注意力机制引入非模式实例分割的任务中,引入反馈连接进行再学习,建立丰富的上下文融合关系,有选择地聚合全局信息,显著提高了预测的精度,极大地解决了分割欠拟合问题。

2 本文方法 2.1 反馈注意力机制的FPN

鉴别特征表示是图像理解的关键,它可以通过捕获远程上下文信息来获得。然而,许多研究表明,由传统FCN(全卷积网络)生成的局部特征可能导致“Things”和“Stuff”的错误分类;与此同时,基于特征金字塔(feature pyramid network,FPN)的分层检测方法虽然取得了很好的效果,但是FPN仍然主要对局部特征进行建模,并没有充分考虑全局上下文依赖关系。

在利用卷积神经网络对图像进行特征提取的过程中,高层次特征的每个通道图都可以看作是一个特定于类的响应,不同的语义响应相互关联;通过挖掘通道图之间的相互依赖关系,强调特征图之间的相关性,提高特定语义的特征表示;与此同时,人脑是具有层级结构的,不仅执行从下层到上层的前馈过程,而且执行从上层到下层的反馈过程。因此,本文引入反馈过程和注意力机制来学习语义信息,首先构建一个通道注意模块[27],它可以捕获通道维度远程上下文依赖关系,然后将通道注意模块嵌入到FPN中;第一轮获取的特征经过通道注意模块建立全局依赖关系后引入反馈过程进行再学习提取第二轮的特征,构成一个循环特征金字塔结构,并将两次提取的特征进行自适应加权,整体的结构如图1所示。

Download:
图 1 反馈注意力机制的FPN结构 Fig. 1 FPN with feedback attention mechanism

本文基于ResNet101引入反馈连接的FPN。首先如图1(a)所示为特征金字塔结构(FPN),左侧为ResNet101主干网络,右侧为金字塔网络,主干网络提取图像特征,然后经过自顶向下和横向连接将每一阶段的特征图进行融合。例如,P3层经过B3层和P4层融合得到,P4层是B4层经过 $1 \times 1$ 卷积和上采样得到,具有高级语义信息,而B3层是位于主干网络的较浅层,具有底层的细节信息。

为了更充分合理地模拟人脑捕获高级语义信息,本文在原来FPN结构的基础上,添加了反馈连接和通道注意模块,构成反馈注意力机制FPN结构,简记为FCAM-FPN,如图1(b)所示。将第一轮FPN提取的特征,经过通道注意模块建立远程依赖关系后得到的输出特征,采用反馈连接输入到主干网络得到第二轮FPN提取的特征,引入了注意力机制和反馈过程的二次学习,这样将捕获富含注意力的前后两次特征。

通道注意模块(channel attention module, CAM)的结构如图2所示。我们直接从原始特征图 ${\boldsymbol{X}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ 计算通道注意图 ${\boldsymbol{D}} \in {\bf{R}} ^{{\boldsymbol{C}} \times {\boldsymbol{C}}}$ ,通道注意图 ${\boldsymbol{D}}$ 相当于一个相关矩阵,它代表了 ${{C}}$ 个通道之间的相关性程度。

Download:
图 2 通道注意模块 Fig. 2 Channel attention module

具体来说,首先将原始特征图 ${\boldsymbol{X}}$ 变换为 ${\boldsymbol{X}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{N}}}$ ,这里 ${\boldsymbol{N}} = {\boldsymbol{H}} \times {\boldsymbol{W}}$ ,然后在 ${\boldsymbol{X}}$ ${{\boldsymbol{X}}^{\rm T}}$ 之间执行矩阵乘法,最后应用Softmax函数来获得通道注意图 ${\boldsymbol{D}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{C}}}$

$ {{\boldsymbol{d}}_{{ji}}} = \frac{{{\rm{exp}}({{\boldsymbol{X}}_{\boldsymbol{i}}} \cdot {{\boldsymbol{X}}_{\boldsymbol{j}}})}}{{\displaystyle\sum_{{\boldsymbol{i}} = 1}^{\boldsymbol{C}}{\rm{exp}}({{\boldsymbol{X}}_{\boldsymbol{i}}} \cdot {{\boldsymbol{X}}_{\boldsymbol{j}}})}}$

式中: ${{\boldsymbol{d}}_{ji}}$ 表示第 $i$ 个通道和第 $j$ 个通道之间的相关程度。与此同时,对通道注意图 ${{\boldsymbol{D}}^{\rm T}}$ 与原始特征图 ${\boldsymbol{X}}$ 变换后的 ${\boldsymbol{X}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{N}}}$ 执行矩阵乘法并重新变换为 ${\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ ,将此结果与原始特征图 ${\boldsymbol{X}}$ 执行逐元素求和运算,以获得最终输出特征 ${\boldsymbol{E}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ :

${{\boldsymbol{E}}_{{j}}} = \sum_{{\boldsymbol{i}} = 1}^{\boldsymbol{C}} {({{\boldsymbol{d}}_{{{ji}}}}{{\boldsymbol{X}}_{{i}}}) + } {{\boldsymbol{X}}_{{j}}}$ (1)

式(1)表明,每个通道的最终特征与所有通道建立了紧密的相互依赖关系,通过跳跃连接使得输出特征表示为所有通道特征和原始特征的和,建立了通道特征图之间的上下文依赖关系模型。

接下来将从通道注意模块(CAM)得到的输出特征,采用反馈连接,重新输入到ResNet101主干网络中,进行第二次特征提取。假设 ${{\boldsymbol{B}}_{{i}}}$ 表示自底向上主干网络的第 ${{i}}$ 级, ${{\boldsymbol{F}}_{{i}}}$ 表示自顶而下FPN操作的第 ${{i}}$ 级, ${{\boldsymbol{R}}_{{i}}}$ 表示经过通道注意模块(CAM)后的输出特征,那么具有反馈过程的输出特征 ${{\boldsymbol{f}}_{{i}}}$ 定义为

$ {{\boldsymbol{f}}_{{i}}} = {{\boldsymbol{F}}_{{i}}}({{\boldsymbol{f}}_{{{i}} + 1}},{{\boldsymbol{x}}_{{i}}}),\;\;{{\boldsymbol{x}}_{{i}}} = {{\boldsymbol{B}}_{i}}({{\boldsymbol{x}}_{{{i}} - 1}}{\rm{,}}{{\rm{R}}_{{i}}}({{\boldsymbol{f}}_{{i}}})) $

式中: ${{\boldsymbol{x}}_0}$ 表示输入图像; ${{\boldsymbol{x}}_{{i}}}$ 表示主干网络经过多个阶段生成的输出特征, ${{\boldsymbol{f}}_{{i}}}$ 表示经过自顶而下FPN的输出特征, ${{i}} = 1,2,\cdots ,{\boldsymbol{S}}$ ${\boldsymbol{S}}$ 是主干残差网络的阶段数,令 ${{\boldsymbol{f}}_{{{S}} + 1}} = {\bf{0}}$ 。这样就使得FPN形成一个循环网络;可将其展开成具有序列的网络结构,那么此时输出特征 ${{\boldsymbol{f}}_{{i}}}$ 表示为

$ {{\boldsymbol{f}}_{{i}}}^{{t}} = {{\boldsymbol{F}}_{{i}}}^{{t}}({\boldsymbol{f}}_{{{i}} + 1}^{{t}},{{\boldsymbol{x}}_{{i}}}^{{t}}),\;\;\;{{\boldsymbol{x}}_{{i}}}^{{t}} = {{\boldsymbol{B}}_{{i}}}^{{t}}({\boldsymbol{x}}_{{{i}} - 1}^{{t}},{{{R}}_{{i}}}^{{t}}({{\boldsymbol{f}}_{{i}}}^{{{t}} - 1})) $

其中 $\forall {\boldsymbol{i}} = 1,2,\cdots,{\boldsymbol{S}},\;{\boldsymbol{t}} = 1,2,\cdots,{\boldsymbol{T}}$ ,令 ${\boldsymbol{f}}_{{i}}^0 = {\bf{0}}$ ,在本文的实验中令 ${\boldsymbol{T}} = 2$ 。最后基于反馈注意力机制的FPN结构的输出特征 ${{\boldsymbol{q}}_{{i}}}$ 表示为

${{\boldsymbol{q}}_{{i}}} = {\boldsymbol{f}}_{{i}}^{{{t}} - 1} + \alpha {\boldsymbol{f}}_{{i}}^{{t}}$ (2)

其中 $\alpha $ 被初始化为0,并逐渐学习分配更多的权重。式(2)表明输出特征为经过通道注意模块前后两次FPN提取到特征 ${{\boldsymbol{f}}_{{i}}}^{{t}}$ ${{\boldsymbol{f}}_{{i}}}^{{{t - 1}}}$ 的自适应加权和;这样既可以保留前一次FPN的信息,又可以充分利用反馈注意力机制再学习到的特征表达,建立起通道间的上下文关系,提取更丰富的语义信息。

2.2 上下文注意模块

为了主动捕获像素之间的语义依赖关系,引入了基于自注意机制的上下文注意模块[28](context attention module, CxAM)。对于非模式实例分割任务而言,物体之间的位置关系复杂,并且被遮挡部分的外观具有不确定性。基于这些特征,CxAM编码了一个像素级别的远程上下文依赖关系,能够自适应地关注更相关的区域。因此,CxAM的输出特征将具有全局的语义信息,并包含周围对象中的上下文关系。

CxAM的结构如图3所示,本文将CxAM模块仅用于Mask head,在语义分割时用来捕获像素之间的语义和位置依赖关系。图3中,在给定的特征图 ${\boldsymbol{F}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ 的情况下,分别使用 $1 \times 1$ 卷积层 ${{\boldsymbol{W}}_{{m}}}$ ${{\boldsymbol{W}}_{{n}}}$ ,按式(3)计算得到转换后的特征图为

$ {\boldsymbol{M}} = {\boldsymbol{W}}_{{m}}^{\rm{T}}{\boldsymbol{F}}\;{\text{和}}\;{\boldsymbol{N}} = {\boldsymbol{W}}_{{n}}^{\rm{T}}{\boldsymbol{F}} $ (3)
Download:
图 3 上下文注意模块 Fig. 3 Context attention module

这里, ${\rm{\{ M}}\;{\rm{,}}\;{\rm{N\} }} \in {\bf{R}}^{{\boldsymbol{C}}' \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ ,接着将 ${\boldsymbol{M}}$ ${\boldsymbol{N}}$ 变换为 ${\bf{R}}^{{\boldsymbol{C}}' \times {\boldsymbol{K}}}$ ,其中 ${\boldsymbol{K}} = {\boldsymbol{H}} \times {\boldsymbol{W}}$ 。为了建立每个像素之间的依赖关系,将 ${{\boldsymbol{M}}^{{\rm T}}}$ ${\boldsymbol{N}}$ 执行矩阵乘法,然后应用Softmax函数来计算它的上下文注意力特征映射得到一个相关性矩阵 ${\boldsymbol{P}} \in {\bf{R}}^{{\boldsymbol{K}} \times {\boldsymbol{K}}}$

$ {{\boldsymbol{p}}_{{{ji}}}} = \frac{{{\rm{exp}}({{\boldsymbol{M}}_{{i}}} \cdot {{\boldsymbol{N}}_{{j}}})}}{{\displaystyle\sum_{{{i}} = 1}^{\boldsymbol{K}}{\rm{exp}}({{\boldsymbol{M}}_{{i}}} \cdot {{\boldsymbol{N}}_{{j}}})}}$

式中: ${{\boldsymbol{p}}_{{{ji}}}}$ 表示第 ${{i}}$ 个像素与第 ${{j}}$ 个像素之间的相关程度。与此同时,另外一条路径将原始特征图 ${\boldsymbol{F}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ 经过一个 $1 \times 1 \times 1$ 卷积层后得到一个大小为 $1 \times {\boldsymbol{H}} \times {\boldsymbol{W}}$ 的特征融合图,将此特征融合图变换为 ${\boldsymbol{C}} \in {\bf{R}}^{{\boldsymbol{HW}} \times 1}$ ,将 ${\boldsymbol{C}}$ 再经过一个Softmax函数得到大小为 ${\boldsymbol{HW}} \times 1$ 的相关性矩阵,然后复制自身大小变为 ${\boldsymbol{Q}} \in {\bf{R}}^{{\boldsymbol{K}} \times {\boldsymbol{K}}}$ ,将 ${\boldsymbol{Q}}$ ${\boldsymbol{P}}$ 执行逐元素求和得到 ${\boldsymbol{A}}$

将原始特征图 ${\boldsymbol{F}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ 使用另外一个 $1 \times 1$ 卷积层 ${{\boldsymbol{W}}_{\boldsymbol{b}}}$ 变换为 ${\boldsymbol{B}} = {\boldsymbol{W}}_{\boldsymbol{b}}^{{\rm T}}{\boldsymbol{F}}$ ,这里 ${\boldsymbol{B}} \in {\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{K}}}$ ,将 ${\boldsymbol{B}}$ ${\boldsymbol{A}}$ 执行矩阵相乘操作并将其结果变换为 ${\bf{R}}^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ ,原始特征图 ${\boldsymbol{F}} \in {\bf{R}} ^{{\boldsymbol{C}} \times {\boldsymbol{H}} \times {\boldsymbol{W}}}$ 经过跳跃连接与此结果执行逐元素求和,得到最后的输出特征图 ${\boldsymbol{F}}'$

经过CxAM模块后,每个位置产生的特征 ${\boldsymbol{F}}'$ 是跨越所有位置的特征和原始特征的加权和。因此,它可以有选择地聚合全局信息,建立上下文依赖关系,相似的语义特征相互促进,从而提高了语义一致性。

3 实验验证

为了验证本文提出的算法,本节对改进的SLN[12]算法进行实验。采用COCO-amodal数据集对该模型进行训练,实验运行环境为深度学习框架Pytorch 0.4.0,操作系统为Ubantu 16.04,Python 3.6,GPU显卡型号为NVIDIA GeForce RTX 2060。

3.1 实验数据集

本文采用文献[11]中发布的COCO-amodal数据集。COCO-amodal数据集是由5072幅图像组成的非模式实例分割数据集,其中2500、1250和1322幅图像分别用于训练、验证和测试。COCO-amodal数据集的注释包括每个对象的可见/不可见区域以及每张图像中所有对象的相对深度顺序,作者没有将注释限制为通常的COCO类,可以为对象指定任意名称;此外,作者还提供了背景区域的注释,这些区域有时扩展到整个图像域,标记为“Stuff”。因此COCO-amodal数据集中的所有对象可以分为两类:“Things”和“Stuff”,其中“Things”是具有规范形状的对象,“Stuff”具有一致的视觉外观,但可以具有任意范围。

3.2 实验细节

实验首先利用在COCO2014数据集上预训练的Mask RCNN模型来初始化网络参数,算法的主干网络是ResNet101。在训练区域提议网络(RPN)时,本文对RPN的网络参数进行了适当的调整,设置非最大抑制的阈值为0.6,以便生成更多的区域提议。模型使用的损失函数和其他超参数均按照文献[12]中描述的策略进行设置和初始化。具体的训练过程中,借鉴离散下降学习率设置方法,以初始学习率 ${\boldsymbol{l_r}} = 0.001$ 训练网络的head部分,训练12个epochs,然后将学习率降低为 ${\boldsymbol{l_r}} = 0.000\;1$ 来微调整个网络,训练8个epochs,总计训练20个epochs。所有目标均采用随机梯度下降法(SGD)进行优化,并设置 ${\rm{weight\_decay}} = $ $ 0.000\;1$ ${\rm{momentum}} = 0.9$

3.3 评价指标

为了验证本文所提出的基于反馈注意力机制和上下文注意模块算法在非模式实例分割任务中的有效性,采用平均精确率(average precision,AP)和平均召回率(average recall,AR)作为对该算法性能的评价指标。平均精确率是指在图像分割时,将IoU阈值在0.5~0.95进行十等分,计算这10个不同IoU阈值下交并比的平均值;同样地,平均召回率指的是在0.5~0.95内10个不同IoU阈值下召回率的平均值。本文分别计算每幅图像在All regions、Things only和Stuff only情况下AP和AR值来评估算法性能,其中AR10和AR100分别表示每张图片中每个类别分类置信度最高的前10和前100个预测框的平均召回率。

由于本文研究的是非模式实例分割的任务,重点关注的是物体在被遮挡情况下对不可见部分的预测,所以有必要关注物体在不同遮挡强度下预测的准确性。因此,本文还统计了每幅图像中“Things”和“Stuff”在部分遮挡(partial occlusion)或重度遮挡(heavy occlusion)状态下的AR值,将其表示为ARP和ARH

3.4 实验结果分析

在COCO-amodal数据集上,将本文所提出的方法与AmodalMask[11]、ARCNN[19]、ARCNN ++[19]、SLN[12]在平均精确率和平均召回率进行对比,其中ARCNN ++表示ARCNN with visible mask,实验结果如表1所示。从表1可知,在COCO-amodal数据集上比较结果,本文所提出的方法,在AP和AR两个方面都有显著的提升,在All regions情况下的AP从8.4%提高到14.3%,AR10从16.6%提高到20.8%,AR100从36.5%提高到40.3%,分别具有5.9%、4.2%和3.8%的收益。实验数据表明,本文的方法通过反馈注意力机制再学习和上下文注意模块,有效建立远程上下文依赖关系,捕获丰富的全局语义信息,增强了非模式实例分割的性能。

表 1 COCO-amodal测试集上的分割结果对比 Tab.1 Comparison of segmentation results on COCO-amodal test set

观察表1在All regions下ARP和ARH的结果可知,当物体处于部分遮挡或重度遮挡状态下,本文提出的方法对于像素的平均召回率仍然具有很大的提高,ARP从40.1%提高到44.3%,ARH从22.5%提高到25.5%,分别具有4.2%和3%的收益,这表明,通过反馈注意力机制的再学习和上下文注意模块,使网络能够学习到全局的语义依赖关系,充分挖掘像素的空间相关性,在非模式实例分割的任务中,该方法能够有效帮助检测器仅仅从物体可见部分提供的线索去准确推断出物体被遮挡部分的最可能外观特征,定性的可视化结果见图4

Download:
图 4 在COCO-amodal数据集上非模式实例分割的定性结果 Fig. 4 Qualitative results of amodal instance segmentation on coco-amodal dataset

与此同时,在“Things only”和“Stuff only”的情况下,本文算法无论是在AP还是AR,即使在部分遮挡或重度遮挡的状态下,都表现出一致的优势:在“Things only”时AP从9.6%提高到16.3%,具有6.7%的绝对收益,69.8%的相对收益;同样地,在“Stuff only”时AP从0.8%提高到1.4%,具有0.6%的绝对收益,75%的相对收益。

为了进一步证明本文提出方法的有效性,本文对COCO-amodal测试集的一些图片进行定性分析,非模式实例分割的定性实验结果如图4所示,观察第1行的对比图可以看出,图中的“冰箱”存在部分遮挡,SLN算法在预测被遮挡、不可见部分时存在一定的欠拟合问题,本文提出的方法通过建立丰富的上下文依赖关系,获取全局语义信息,实现了更准确的预测;从第3行对比图可知,在复杂的场景情况下,SLN算法对小目标分割存在一定程度的漏分割现象,如图中有的“人”没有检测出来,并且这些样本属于小目标,本文的方法由于捕获了像素级的全局语义信息,加强了上下文信息的融合,对于小目标对象的漏分割、分割不准确的情况有了显著改善,不仅检测到图像中的小目标,同时对小目标对象的遮挡部分也能合理预测,使得分割质量得到大幅提升。

3.5 统计检验分析

为了对比不同的算法在数据集上的性能差异,本文采用Friedman检验来分析本文提出的算法是否具有显著性。本文在COCO-amodal数据集上对该方法进行了充分的实验,表1从All regions、Things only和Stuff only 3个维度分析了不同算法之间的性能差异。本文把表1转换成按AP从高到低排序的排序表,最后获得不同方法在COCO-amodal数据集不同维度上的排序情况,结果如表2所示。

表 2 不同算法在COCO-amodal测试集不同维度的AP排序表 Tab.2 AP ranking tables of different algorithms in different dimensions on COCO-amodal test set

在获得不同算法的AP排序表之后,采用Frie-dman检验来判断这些算法是否性能都相同,同时做出假设“所有的算法性能相同”。变量 ${{{\tau}} _{{F}}}$ 服从自由度为 $({{k}} - 1)$ $({{k}} - 1)({{N}} - 1)$ ${{F}}$ 分布,计算方法为

$\begin{aligned}{{{\tau}} _{{\chi ^{\rm{2}}}}}{\rm{ = }}\frac{{{\rm{12}}{{N}}}}{{{{k}}({{k}} + 1)}}\left(\sum\limits_{{{i}} = 1}^{{k}} {{{r}}_{{i}}^2 - \frac{{{{k}}{{({{k}} + 1)}^2}}}{4}} \right)\\ {{{\tau}} _{{F}}} = \frac{{({{N}} - 1){{{\tau}} _{{\chi ^2}}}}}{{{N}({{k}} - 1) - {{{\tau}} _{{\chi ^2}}}}}\quad\quad\quad \end{aligned}$ (4)

通过式(4)计算得到的变量值 ${{{\tau}} _{{F}}}$ 与临界值 ${{{F}}_{\alpha = 0.05}}$ 进行比较,假设“所有的算法性能相同”被拒绝,说明了不同算法之间的性能显著不同,其中 ${{{F}}_{\alpha = 0.05}}{\rm{ = 3}}{\rm{.837\;9}}$ ${{k}} = 5$ ${{N}} = 3$ 。为了进一步区分各算法,采用Nemenyi检验作为“后续检验”。Nemenyi检验临界值域 ${\rm{CD}}$ 的计算公式为

${\rm{CD}} = {{{q}}_\alpha }\sqrt {\frac{{{{k}}({{k}} + 1)}}{{6{{N}}}}} $ (5)

由式(5)计算出临界值域 ${\rm{CD}}$ 后,画出Friedman检验结果图,如图5所示。其中,中心圆点表示每个算法的平均序值,以圆点为中心的横线段表示临界值域的大小。Friedman检验结果表示,如果两种方法的横线段有较多重叠,则表明两种算法的差异性较小,否则,说明两种算法具有显著的差异性。

Download:
图 5 Friedman检验结果 Fig. 5 Graph of Friedman test result

观察图5可知,直线AmodalMask与ARCNN++重叠的部分比例最高,说明了算法AmodalMask和ARCNN++没有显著差别;直线OURS与直线SLN有较多重叠部分,直线OURS与直线AmodalMask、直线ARCNN++具有较少的重叠部分,直线OURS与直线ARCNN基本无重叠部分。也就是说本文所提出的算法仍然优于其他4种算法,显著优于算法ARCNN,这也验证了表1的实验结果。

4 结束语

本文提出一个反馈注意力机制的特征金字塔结构和上下文注意模块的方法并将其应用到非模式实例分割任务中。该方法在特征金字塔结构基础上引入反馈连接进行再学习,有效建立起通道之间的远程上下文依赖关系,并结合像素上下文注意力模块学习特征的空间相关性,捕获精细的空间细节,充分利用全局信息。在SLN网络的基础上,加入本文提出的方法构成新的网络结构,通过在COCO-amodal数据集上训练和测试,实验结果表明,本文方法能对物体被遮挡、不可见部分的最可能外观做出合理预测,并改善了其他方法中存在的漏分割、分割不准确的情况,但离实时处理仍有较大差距,后续将对此进行优化。

参考文献
[1] SIMONYAN K, ZISSERMAN A. Very deep convolution- al networks for large-scale image recognition[EB/OL]. (20 15-04-10)[2020-07-21] https://arxiv.org/abs/1409.1556. (0)
[2] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]//Pro- ceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA, 2016: 770−778. (0)
[3] LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[C]//Proceedings of the 14th Euro- pean Conference on Computer Vision. Amsterdam, The Netherlands, 2016: 21−37. (0)
[4] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137-1149. DOI:10.1109/TPAMI.2016.2577031 (0)
[5] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy, 2017: 2999−3007. (0)
[6] GIRSHICK R. Fast R-CNN[C]//Proceedings of 2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile, 2015: 1440−1448. (0)
[7] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]//Pr- oceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, America, 2015: 3431−3440. (0)
[8] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segme- ntation[EB/OL]. (2017-10-05)[2020-07-21] https://arxiv.org/abs/1706.05587. (0)
[9] HE Kaiming, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C]//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy, 2017: 2980−2988. (0)
[10] BOLYA D, ZHOU Chong, XIAO Fanyi, et al. YOLACT: real-time instance segmentation[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, South Korea, 2019: 9156−9165. (0)
[11] ZHU Yan, TIAN Yuandong, METAXAS D, et al. Semantic amodal segmentation[C]//Proceedings of the 30th IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, United States, 2017: 3001−3009. (0)
[12] ZHANG Ziheng, CHEN Aapei, XIE Ling, et al. Learning semantics-aware distance map with semantics layering network for amodal instance segmentation[C]//Pro- ceedings of the 27th ACM International Conference on Multimedia. Nice, France, 2019: 2124−2132. (0)
[13] QIAO Siyuan, CHEN L C, YUILLE A. DetectoRS: detecting objects with recursive feature pyramid and swi- tchable atrous convolution[EB/OL]. (2020-06-03)[2020-07- 21] https://arxiv.org/abs/2006.02334. (0)
[14] LI Yi, QI Haozhi, DAI Jifeng, et al. Fully convolutional instance-aware semantic segmentation[C]//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, United States, 2017: 4438−4446. (0)
[15] LIU Shu, QI Lu, QIN Haifang, et al. Path aggregation network for instance segmentation[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, United States, 2018: 8759−8768. (0)
[16] CHEN Xinlei, GIRSHICK R, HE Kaiming, et al. Tensormask: a foundation for dense object segmenta- tion[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, South Korea, 2019: 2061−2069. (0)
[17] XIE Enze, SUN Peize, SONG Xiaoge, et al. PolarMask: single shot instance segmentation with polar representa- tion[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, United States, 2020: 12190−12199. (0)
[18] LI Ke, MALIK J. Amodal instance segmentation[C]//Pro- ceedings of the 14th European Conference on Computer Vision. Amsterdam, The Netherlands, 2016: 677−693. (0)
[19] FOLLMANN P, KÖNIG R, HÄRTINGER P, et al. Learning to see the invisible: end-to-end trainable amodal instance segmentation[C]//2019 IEEE Winter Conference on Applications of Computer Vision (WACV). Waikoloa, United States, 2019: 1328−1336. (0)
[20] EHSANI K, MOTTAGHI R, FARHADI A. SeGAN: segmenting and generating the invisible[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, United States, 2018: 6144−6153. (0)
[21] HU Jie, SHEN Li, SUN Gang. Squeeze-and-excitation networks[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, United States, 2018: 7132−7141. (0)
[22] WANG Xiaolong, GIRSHICK R, GUPTA A, et al. Non-local neural networks[C]//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, United States, 2018: 7794−7803. (0)
[23] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]//Proceedings of the 15th Euro- pean Conference on Computer Vision (ECCV). Munich, Germany, 2018: 3−19. (0)
[24] CAO Yun, XU Jiarui, LIN S, et al. GCNet: non-local networks meet squeeze-excitation networks and beyo- nd[C]//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision Workshops. Seoul, South Korea, 2019: 1971−1980. (0)
[25] FAN Zhibo, YU Jingang, LIANG Zhihao, et al. FGN: fully guided network for few-shot instance segmenta- tion[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, United States, 2020: 9169−9178. (0)
[26] LIU Dongnan, ZHANG Donghao, SONG Yang, et al. Cell R-CNN v3: a novel panoptic paradigm for instance segmentation in biomedical images[EB/OL]. (2020-02-15) [2020-07-21] https://arxiv.org/abs/2002.06345. (0)
[27] FU Jun, LIU Jing, TIAN Haijie, et al. Dual attention network for scene segmentation[C]//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, United States, 2019: 3141−3149. (0)
[28] CAO Junxu, CHEN Qi, GUO Jun, et al. Attention-guided context feature pyramid network for object detecti- on[EB/OL]. (2020-05-23)[2020-07-21] https://arxiv.org/abs/2005.11475. (0)