目标提取是数字摄影测量中矢量地图测绘的基本问题之一,人工地物(道路、建筑物、桥梁、机场等)是兴趣目标的重要组成部分,在遥感影像中对其进行提取有着广泛的应用,如城市地图制作与更新[1]、灾害预警与评估[2]、变化检测[3]及军事目标检测[4-5]等。随着光学遥感影像空间分辨率不断提高,影像细节更为丰富,场景与目标也更为复杂多样,人工地物的提取与检测有了更多可用信息,也面临着更多的问题与挑战。
传统的人工选取特征的检测算法主要分为两类:①基于特征描述的影像分割算法;②基于模型构建的目标检测算法。基于特征描述的影像分割算法将遥感影像分为前景(人工地物)和背景两部分,通过恰当的特征描述和分割算法,将人工地物从背景中分割出来。文献[6]采用一个基于分形误差和纹理边缘约束的简化Mumford-Shah模型对航空影像进行分割得到人工地物区域。文献[7]通过提取分形特征及阈值分割的方法对红外影像中的人工地物进行检测,并对多种分形特征进行试验,最终得出多尺度分形特征(multi-scale fractal feature related with K, MFFK)精度较高的结论。文献[8]针对传统水平集演化方法调参复杂、计算量大的问题,提出将传统的平均曲率正则项替换成高斯核的改进水平集演化方法,并在高分辨率遥感影像中对人工地物进行提取,在保证精度的同时提高了运算速度。基于特征的分割算法能较完整地提取遥感影像中的人工地物,但由于影像细节丰富,不可避免地会出现边缘破碎的现象,使用超像素替代像素作为影像分割的基本单位可以有效改善此现象。文献[9]就对此进行了尝试,首先通过多尺度NSCT(nonsubsampled contourlet)变换获取影像的特征,然后采用一种改进的分水岭算法对影像进行过分割,最后以分割的超像素为单位采用分形布朗运动(fractional Brownian motion,fBm)模型对影像进行分割得到人工地物区域。而基于模型构建的目标检测算法则是对人工地物进行建模,然后进行全图搜索寻找符合模型描述的人工地物区域。文献[10]使用神经网络对人工地物进行建模,结合人工地物的几何特征如形状、邻接关系、尺度及主方向等进行监督训练,最终用SVM分类器对影像进行分类,得到包含人工地物的矩形区域。文献[11]采用最小二乘SVM训练器对包含人工地物样本的SAR影像进行训练,并通过交叉验证和网格搜索的方法对训练参数进行优化,得到人工地物的预测模型,最终使用该预测模型对影像进行分类得到人工地物区域。文献[12]依据图像的平滑性及4种目标特征进行训练得到人工地物的预测模型,然后使用滑动窗口遍历图像得到包含人造目标的矩形窗口。基于模型的检测算法能较为紧凑地提取包含人工地物的矩形区域,适用于人工地物稀疏、特征明显的影像,但无法获取人工地物的边缘信息,且对于背景复杂、人工地物繁多的影像适用性较差。
近年来,深度学习理论知识得到不断发展,深度学习的概念最早由文献[13]提出,是指通过深度网络对复杂函数进行逼近的学习过程。深度学习方法通过深度网络自动化学习特征,减少了人为设计特征的不完备性,在很多应用中具有优异的识别或分类性能。一些学者将深度学习方法应用到遥感影像人工地物检测中,并取得了不错的效果[14-15]。但深度学习方法需要大量的训练数据和计算开销,对样本分布也有一定的要求,因此在很多应用中受到限制。此外,使用深度学习生成的模型较为复杂,难以解释和分析,也难以直接进行改进,这些都是有待解决的问题。
本文致力于从遥感影像中提取边界光滑、区域完整的人工地物目标,提出了一种基于人工选定特征的变分泛函优化方法。变分泛函优化方法是计算机视觉中的一类经典的方法,其中泛函数是以函数为自变量的一类函数,对泛函数求极值的问题称为变分问题。本文算法受Chan-Vese图像分割模型[15]的启发,根据人工地物在影像中显著度和纹理与背景差异较大的特点,构建了一个包含显著性约束、面积和边界约束、纹理约束以及灰度方差约束的能量泛函数。采用变分法迭代求取局部极值,得到前景部分,即为人工地物区域。该能量函数同时包含超像素优化项和像素优化项,一定程度上解决了传统的图像分割算法在遥感影像中易产生破碎边缘的问题。
1 基于变分法的人工地物检测自文献[16]提出活动轮廓模型(active contour model, ACM)以来,基于曲线演化的图像分割算法得到了极大的发展[17-18]。该类算法的基本思想是在图像感兴趣区域内初始化一条曲线,同时构造能量泛函数驱动该曲线运动,在能量泛函数取得极小值时使得演化曲线逼近目标边缘,从而得到分割结果[19]。本文算法首先基于超像素对遥感影像进行显著性计算,将计算得到的显著性图进行阈值分割,并将其边缘作为曲线演化的初值,然后构建驱动曲线演化的能量泛函,分别包含基于超像素的显著性约束项和基于像素的边界、面积、纹理和灰度方差约束项,最后通过变分法迭代求取曲线演化的结果,得到分割的前景即人工地物部分。算法流程如图 1所示。
1.1 能量泛函数的构建
传统的Chan-Vese模型(以下简称C-V模型)用一条封闭曲线C将待分割图像I分为外部区域outside(C)和内部区域inside(C)两部分,并通过极小化如式(1)所示的能量泛函数,使得曲线演化到目标边界处完成图像分割。
式中,μ≥0、λ1 > 0、λ2 > 0是权重参数;c1为内部区域的灰度均值;c2为外部区域的灰度均值;I(x, y)为图像坐标为(x, y)处的像素灰度值。
C-V模型的能量泛函数共有3项:使得曲线C趋于平滑的长度项, 目标区域的灰度方差能量偏差项,以及背景区域的灰度方差能量偏差项。随着能量泛函数EC-V的取值不断减小直至趋近于全局最小值,曲线C不断演化,最终移动到目标区域的边界处。Chan-Vese模型基于目标与背景灰度的均一性,适用于纹理简单或匮乏的影像,而高分辨率遥感影像细节丰富,纹理复杂,传统的C-V模型并不适用。
人工地物在遥感影像中一般具有显著性和纹理与背景差异较大的特点。本文算法借鉴曲线演化思想,将人工地物提取转化为图像分割及能量泛函数极小化的问题。对于待提取的遥感影像Ω,分割曲线C将其分为人工地物区域Ωo及背景区域Ωb两部分,驱动曲线C运动的能量函数设计如下
能量函数共包含4项,其中第一项ES为基于超像素的显著性约束项;后3项则为基于像素的约束项,其中ELA为边界和面积约束项,使得分割边界尽可能紧凑平滑,ET为纹理约束项,EDEV为灰度方差约束项。下文将对4个约束项进行详细介绍。
1.1.1 显著性约束大部分现有的自底向上的显著性检测算法都是基于像素或超像素块与局部或全局特征的对比度计算的[20],许多学者对计算对比度的方法做出了改进[21],而文献[22]提出一种基于图的流形排序算法计算图像的显著性,在结构与纹理较为复杂的图像中取得了较好的结果。本文结合两种方法,根据传统的对比度计算方法计算图像的显著性,并对其进行阈值分割,将得到的前景部分作为种子点,构建无向有权图并采用流行排序的方法得到最终的显著性图。为提高运算效率,并有效减少分割结果边缘破碎的问题,本文采用分水岭算法[23]对图像进行过分割,以产生的超像素块为处理单位进行显著性检测。显著性计算方法如下。
将图像表示为超像素数据集X={x1, x2, …, xn}∈Rm×n的形式,超像素xi的特征向量vi表示为
式中,ri、gi、bi分别是超像素的三波段颜色均值;di为超像素的梯度主方向;ti为超像素的CS-LBP[25]纹理统计平均量。则超像素xi的显著性值定义为
式中,xj为所有与xi相邻的超像素,0≤λ < 1是权重参数,试验时取0.4~0.6。对得到的显著性图进行阈值分割,得到前景部分,称为标记点。
构建图G=(V, E), 其中V为超像素节点,E为每对相邻超像素的边,其权重由矩阵W=[ωij]决定,其中
式中,γ∈(0,2]为常数参数。根据W计算对角矩阵D=diag{d11, …, dnn},其中
定义排序函数f:X→Rn, 对于每一个超像素xi,都有一个排序值f(xi)与之对应。f可记为向量形式f=[f1 f2 … fn]T。定义标记向量y=[y1 y2 … yn]T,当超像素xi为标记点时,yi=1,否则yi=0。则可通过最小化如式(6)所示的代价函数,求得排序向量f。
经过推演,f的闭合(close form)解为
根据标记点计算初始标记向量y,再由超像素特征向量计算权值矩阵W,即可通过式(7)求得每个超像素的排序值,也即显著性。图 2显示了标记点和计算得到的显著性图。
使用得到的显著性图作为能量泛函数的显著性约束条件,一般来说显著值高的区域属于人工地物区域的可能性较大,反之则属于背景的可能性较大;并且同属于人工地物区域的超像素之间的显著性差异较小,而分别属于前景/背景的超像素之间的显著性差异较大。对于得到的人工地物分割结果Ωo,希望其显著性强且分布均匀,显著性约束项设计如下
式中,xc为图像的平均显著值;si为超像素的显著性值;sj为与si相邻的超像素的显著性值。
该约束项是基于超像素的。试验表明,加入超像素显著性优化项后,能较好地改善人工地物提取噪声较多的情况,且对于显著性较低的非人工地物区域有很好的剔除作用。
1.1.2 边界和面积约束对于分割得到的人工地物区域,笔者希望其边界完整、形状圆滑,因此设计边界和面积约束项,如下
式中,μ1 > 0,μ2 > 0为正值参数,试验时应选取略大于0的微小正值,以求在保证边缘平滑性的同时,不影响演化曲线与目标边缘的切合性。
1.1.3 纹理约束纹理特征是遥感影像的重要特征之一,因此是人工地物提取中不可忽视的一部分。局部二值模式(LBP)[24]是目前二维图像简单高效的局部纹理描述子之一,本文采用改进的CS-LBP特征[25]统计图像的纹理特征,纹理约束项设计如下
式中,λ1, λ2∈[0.8, 1.2]为经验权重参数;T(x, y)为图像坐标为(x, y)处的CS-LBP计算值;to、tb分别为人工地物区域和背景的CS-LBP纹理均值。
1.1.4 灰度方差约束本文算法能量泛函数的灰度方差约束项与C-V模型的灰度方差约束项相同,定义为
式中,λ1, λ2∈[0.8, 1.2]为经验权重参数;cio、cib分别为各波段人工地物区域和背景的灰度均值。
1.2 基于变分法的能量泛函数求解首先介绍二维泛函数的极值求解过程,设
为二维泛函表达式,则E[f(x, y)]取得极值的条件是满足E-L方程[26]
求解能量泛函的极值问题可以转化为求解相应的E-L方程,但由于E-L方程一般为非线性偏微分方程,数值计算上比较困难。水平集方法是用E-L方程求解泛函数极值的一种具体实现方法,下面对水平集方法进行概述。
定义水平集函数ϕ(x, y)如下
重写本文算法的能量泛函
式中,v(x, y)=[Ii(x, y), T(x, y)](i=1, 2, 3)为图像坐标为(x, y)处的灰度、纹理组合特征;vo、vb分别为人工地物区域和背景的平均组合特征。
将此能量函数用水平集函数ϕ(x, y)表达,如下所示
通过变分后,可以获得以ϕ表达的偏微分方程,如下所示
式中,
本文设计了两组试验,用来评估本文算法在高分辨率遥感影像中提取人工地物的性能。其中试验1进行本文算法与传统的人工地物提取算法的对比,试验2进行本文算法与深度学习方法的对比。试验1选取多样的人工地物场景,包括城区结构复杂的高大建筑、乡村低矮建筑、城区立交桥、乡村土路等,用于验证本文算法在多种复杂的场景中均有较为良好的表现。试验2则选取高分辨率的样本数据并对其进行降采样,用于验证本文算法在不同的分辨率下均有较好的普适性。两组试验均选取重庆和广东某地的航拍影像为试验数据,影像分辨率均在1 m以内,(试验数据可从http://earthvisionlab.whu.edu.cn/MSOD/index.html下载)。
2.2 人工地物检测结果与分析 2.2.1 与传统算法的对比为了验证本文提出的超像素优化项能极大改善人工地物提取的结果,本文使用去除超像素优化项的算法进行试验,与加入超像素优化项的试验结果进行对比,部分试验结果如图 3所示。从图 3可以看出,加入超像素显著性优化项后,能剔除夹杂在人工地物中的大块植被等低显著性区域。为了进一步说明超像素约束项对人工地物检测结果的优化作用,采取精确度、虚警率及漏检率3种评价指标定量描述有/无超像素约束项情况下算法的检测精度。试验数据集共包含像素363 587个,其中人工地物所占的像素个数为188 485个(参考真值为人工勾绘),背景所占的像素个数为175 102个。3种评价指标定义如式(17)所示。有无超像素优化项检测结果的定量评价如表 1所示。
超像素约束项 | 正确提取 | 错误提取 | 漏提取 | 精确度/(%) | 虚警率/(%) | 漏检率/(%) |
无 | 181 639 | 56 346 | 6396 | 76.32 | 23.68 | 3.39 |
有 | 170 485 | 11 220 | 17 550 | 93.83 | 6.17 | 9.31 |
从表 1可以看出,没有超像素约束项时,人工地物检测的精度较低,而且存在大量的误检。这是由于没有显著性约束,算法容易将显著性较低的部分背景误检为人工地物。加入超像素约束项后,算法的精确度和虚警率都有了明显的改善。此外,虽然表 1显示没有超像素约束项时算法的漏检率较低,但这是建立在大量的误检之上的。综合来说,加入超像素约束项后,算法的稳定性得到了较大的提升,不仅能够保证较高的检测精度,误检现象也大为减少。
选取传统Chan-Vese模型及基于马尔科夫随机场的分割算法[27]对相同区域进行人工地物提取,部分提取结果如图 4所示。提取结果以二值图的形式展示,其中白色区域为提取的人工地物,黑色区域为非人工地物(本文算法的可执行程序可从http://earthvisionlab.whu.edu.cn/MSOD/code.rar下载)。其中C-V模型的演化曲线初始化为图像正中心的圆。
由图 4可以看出,本文算法可以较为完整地提取出建筑物、道路等人工地物,由于加入了超像素优化项,零碎的噪声点和大片人工地物中间的孔洞现象也较其他两种方法大为减少,人工地物的边缘也较为平滑和明显,对于多样的人工地物类型,都能较为准确地提取其轮廓。而由于没有先验知识,C-V模型随机初始化,对于纹理复杂的遥感影像,得到的分割结果较为零碎,且由于C-V模型完全基于前景与背景的灰度差异性,以及前景与背景内部的灰度均一性,对于人工地物与背景灰度相似的影像,分割结果完全错误,表明C-V模型对演化曲线初始位置敏感、不适用于纹理复杂的遥感影像目标提取。基于马尔可夫随机场的分割算法虽然能较为完整地提取人工地物部分,但由于遥感影像纹理复杂,容易产生较多的噪声点,虚警率较高,而且由于没有超像素优化项, 分割结果较为零碎,人工地物内部的空洞现象也较为明显。同样采取精确度、虚警率及漏检率3种指标评价3种算法的检测精度,结果如表 2所示。
算法 | 正确提取 | 错误提取 | 漏提取 | 检测精度/(%) | 虚警率/(%) | 漏检率/(%) |
C-V模型 | 87 895 | 4537 | 99 600 | 95.09 | 4.91 | 52.84 |
MRF | 162 515 | 22 403 | 25 520 | 87.88 | 12.12 | 13.54 |
本文方法 | 170 485 | 11 220 | 17 550 | 93.83 | 6.17 | 9.31 |
从表 2可以看出,本文提出的算法在多样的试验数据中均具有较好的检测结果,检测精度达93.83%。在保证检测精度的同时,虚警率和漏检率也较低。C-V模型检测精度较低,且出现较严重的漏检情况。而基于马尔可夫随机场的分割算法虽然检测精度尚可,但由于未加入超像素显著性优化项,存在大量的噪声及内部空洞等细碎的检测结果,使得虚警率和漏检率都偏高。综合3种精度评定指标,本文算法能够较为完整地提取人工地物区域,漏检的人工地物区域较少,虚警现象也较少,在人工选定特征的人工地物提取算法中取得了良好的表现。
2.2.2 与深度学习方法的对比选取文献[28]提出的深度学习方法与本文算法进行对比。为验证两种算法在不同分辨率下的性能,选取原始大小为512×512的试验数据,并将其降采样至256×256,分别对两种分辨率不同的数据进行试验,试验结果如图 5—图 8所示。其中图 5为较高分辨率下本文算法与深度学习方法的对比,图 6为较低分辨率下二者的对比,而图 7和图 8则分别展示了不同分辨率下本文算法和深度学习方法的提取结果。
从图 5及图 7可以看出,深度学习算法在较高分辨率下具有良好的表现,对人工地物的分类极为准确,且对阴影下的人工地物具有优异的识别性能,细碎的边缘和人工地物内部的空洞现象也极少。而通过分析图 6和图 7可知,降低分辨率后深度学习方法的提取精度有所下降,而且出现一些难以解释的提取错误,如明显的房屋未被提取等,这是由于训练样本过少,导致训练得到的模型普适性较差。
而从图 8可以看出,本文方法在不同分辨率下提取结果相差较小,高分辨率下能提取更多细小的支路等人工地物细节,但也会产生更多的细碎噪声,反之低分辨率下噪声较少,但部分面积较小的地物细节会由于超像素优化而丢失。
综合图 5—8,在较高分辨率下,深度学习方法由于能够学习到丰富的特征,人工地物提取准确,且对阴影抗性极好,提取精度优于本文算法。而较低分辨率下深度学习方法的检测精度有所下降,且存在大量漏检,而本文算法提取结果相差较小,本文算法总体精度更优。试验2共有图像像素3 932 160个,其中人工地物像素1 317 542个,降采样后共有像素983 040个,其中人工地物像素329 386个。表 3展示了两种算法的提取精度,同样以精确度、虚警率及漏检率3种评价指标定量评价两者的精度。从表 3可以得出结论,本文算法在高分辨率下检测精度略逊于深度学习方法,但对不同分辨率都具有普适性,且不需要大量的训练数据即可完成自动化检测,是一种较为有效的人工地物检测算法。
算法 | 正确提取 | 错误提取 | 漏提取 | 检测精度/(%) | 虚警率/(%) | 漏检率/(%) |
深度学习512×512 | 1 163 908 | 87 427 | 153 634 | 93.01 | 6.99 | 11.66 |
深度学习256×256 | 270 054 | 26 233 | 59 332 | 91.15 | 8.85 | 18.01 |
本文方法512×512 | 1 169 184 | 122 692 | 148 358 | 90.50 | 9.50 | 11.26 |
本文方法256×256 | 292 094 | 31 617 | 37 292 | 90.23 | 9.77 | 11.32 |
3 结语
本文采用能量泛函变分求解的算法,通过提取特征及构建合理的能量泛函数,实现了高分辨率遥感影像人工地物区域的分割提取。该算法以流形排序计算得到的显著性图为初值,综合利用影像的显著性、纹理及灰度等多项特征构建能量泛函数,使得人工地物提取的结果更为准确可靠。试验选取了多幅包含不同人工地物类型的高分辨率航拍影像作为试验数据对本文算法进行验证,并与其他传统的人工选择特征的提取算法及深度学习方法进行对比,结果表明本文算法具有优异的表现。对人工地物这样的有比较明显的、易于用比较紧致的特征来进行描述的目标,总体来说并不比深度学习方法效果差,且无须进行样本的学习。
本文算法仍需改进,如难以区分显著性较高(比较规则)的裸地与人工地物,以及被阴影遮挡的人工地物区域等。对于难以人工设计特征进行描述的高度复杂目标,深度学习方法(例如深度卷积网络)往往可以通过大数据的训练较好地抽取一些高层次的、抽象的特征。人的先验知识、人工设计的特征和深度学习框架进行结合,从而克服深度学习对大数据样本的依赖等问题,并运用于遥感影像的自动解译,是继续探索的方向。
[1] |
曹兵.
城市基本比例尺地形图动态联动更新机制[J]. 测绘工程, 2016, 25(5): 78–80.
CAO Bing. A Dynamic Linkage Updating Mechanism of the Basic Scale Topographic Map[J]. Engineering of Surveying and Mapping, 2016, 25(5): 78–80. |
[2] | CHEN Kunshan, CRAWFORD M M, GAMBA P, et al. Introduction for the Special Issue on Remote Sensing for Major Disaster Prevention, Monitoring, and Assessment[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(6): 1515–1518. DOI:10.1109/TGRS.2007.899144 |
[3] | PHALKE S, COULOIGNER I. Change Detection of Man-made Objects Using High Resolution Imagery and GIS Data[C]//New Strategies for European Remote Sensing. Rotterdam: Millpress, 2005: 191-198. |
[4] | GROENWALL C A, CHEVALIER T R, ELMQVIST M, et al. Methods for Recognition of Natural and Man-made Objects Using Laser Radar Data[C]//Proceedings Volume 5412, Laser Radar Technology and Applications Ⅸ. Orlando, Florida: SPIE, 2004, 5412: 310-320. |
[5] | PHAM I, POLASEK M. Algorithm for Military Object Detection Using Image Data[C]//IEEE/AIAA 33rd Digital Avionics Systems Conference. Colorado Springs, CO: IEEE, 2014: 3D3-1-3D3-15. |
[6] | CAO Guo, YANG Xin, ZHOU Dake. Mumford-Shah Model Based Man-made Objects Detection from Aerial Images[C]//Proceedings of the 5th International Conference on Scale Space and PDE Methods in Computer Vision. Heidelberg: Springer-Verlag, 2005: 386-395. |
[7] | LIU Jun, WEI Hong. Optimal Selection of Fractal Features for Man-made Object Detection from Infrared Images[C]//2ndInternational Asia Conference on Informatics in Control, Automation and Robotics. Wuhan, China: IEEE, 2010: 177-180. |
[8] | LI Zhongbin, SHI Wenzhong, WANG Qunming, et al. Extracting Man-made Objects From High Spatial Resolution Remote Sensing Images via Fast Level Set Evolutions[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 53(2): 883–899. |
[9] | WEI Wang, XIN Yang. Rapid, Man-made Object Morphological Segmentation for Aerial Images Using a Multi-scaled, Geometric Image Analysis[J]. Image and Vision Computing, 2010, 28(4): 626–633. DOI:10.1016/j.imavis.2009.10.002 |
[10] | INGLADA J. Use of Pre-conscious Vision and Geometric Characterizations for Automatic Man-made Object Recognition[C]//IEEE International Geoscience and Remote Sensing Symposium. Seoul, South Korea: IEEE, 2005: 180-182. |
[11] | YANG Zhaohui, SU Qun, CHEN Yingying. Automatic Recognition of Man-made Objects in SAR Images Using Support Vector Machines[C]//Urban Remote Sensing Event. Shanghai, China: IEEE, 2009: 1-5. |
[12] |
李玲玲, 刘永进, 王自桦, 等.
基于滑动窗口的遥感图像人造目标检测算法[J]. 厦门大学学报(自然科学版), 2014, 53(6): 792–796.
LI Lingling, LIU Yongjin, WANG Zihua, et al. Man-made Object Extraction from the Remote Sensing Image Based on Sliding Windows[J]. Journal of Xiamen University (Natural Science), 2014, 53(6): 792–796. |
[13] | HINTON G E, OSINDER O S, TEH Y W. A Fast Learning Algorithm for Deep Belief Nets[J]. Neural Computation, 2006, 18(7): 1527–1554. DOI:10.1162/neco.2006.18.7.1527 |
[14] | MAKANTASIS K, KARANTZALOS K, DOULAMIS A, et al. Deep Learning-based Man-made Object Detection from Hyperspectral Data[M]//BEBIS G. Advances in Visual Computing. Cham: Springer, 2015: 717-727. |
[15] | VAKALOPOULOU M, KARANTZALOS K, KOMODAKIS N, et al. Building Detection in Very High Resolution Multispectral Data with Deep Learning Features[C]//IEEE International Geoscience and Remote Sensing Symposium. Milan, Italy: IEEE, 2015: 1873-1876. |
[16] | KASS M, WITKIN A, TERZOPOULOS D. Snakes:Active Contour Models[J]. International Journal of Computer Vision, 1988, 1(4): 321–331. DOI:10.1007/BF00133570 |
[17] | CHAN T F, VESE L A. Active Contour Without Edges[J]. IEEE Transactions on Image Processing, 2001, 10(2): 266–277. DOI:10.1109/83.902291 |
[18] | ZHOU Dongguo, ZHOU Hong, SHAO Yanhua. An Improved Chan-Vese Model by Regional Fitting for Infrared Image Segmentation[J]. Infrared Physics & Technology, 2016, 74: 81–88. |
[19] |
王相海, 方玲玲.
活动轮廓模型的图像分割方法综述[J]. 模式识别与人工智能, 2013, 26(8): 751–760.
WANG Xianghai, FANG Lingling. Survey of Image Segmentation Based on Active Contour Model[J]. Pattern Recognition & Artificial Intelligence, 2013, 26(8): 751–760. |
[20] |
李京卫, 董水龙, 张朝立.
自底向上的图像显著性检测综述[J]. 数字技术与应用, 2014(12): 220–221.
LI Jingwei, DONG Shuilong, ZHANG Chaoli. Review of Bottom-up Saliency Detection Methods of Images[J]. Digital Technology & Application, 2014(12): 220–221. |
[21] | CHENG Mingming, ZHANG Guoxin, MITRA N J, et al. Global Contrast Based Salient Region Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2011: 409-416. |
[22] | YANG Chuan, ZHANG Lihe, LU Huchuan, et al. Saliency Detection via Graph-based Manifold Ranking[C]//IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR: IEEE, 2013: 3166-3173. |
[23] | DE SMET P, PIRES R L V P M. Implementation and Analysis of an Optimized Rainfalling Watershed Algorithm[C]//Proceedings Volume 3974, Image and Video Communications and Processing 2000. San Diego, CA, USA: SPIE, 2000: 759-766. |
[24] | AHONEN T, HADID A, PIETIKAINEN M. Face Description with Local Binary Patterns:Application to Face Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(12): 2037–2041. DOI:10.1109/TPAMI.2006.244 |
[25] | HEIKKILÄ M, PIETIKÄINEN M, SCHMID C. Description of Interest Regions with Local Binary Patterns[J]. Pattern Recognition, 2009, 42(3): 425–436. DOI:10.1016/j.patcog.2008.08.014 |
[26] | MOREL J M, SOLIMINI S. Variational Methods in Image Segmentation[M]. Boston: Birkhäuser Boston, 1995: 83-91. |
[27] | ZONG Kaibin, SOWMYA A, TRINDER J. Building Change Detection Based on Markov Random Field: Exploiting Both Pixel and Corner Features[C]//International Conference on Digital Image Computing: Techniques and Applications. Adelaide, SA, Australia: IEEE, 2015: 1-7. |
[28] | ZHANG Mi, HU Xiangyun, ZHAO Like, et al. Learning Dual Multi-scale Manifold Ranking for Semantic Segmentation of High-Resolution Images[J]. Remote Sensing, 2017, 9(5): 500. DOI:10.3390/rs9050500 |