测绘地理信息   2016, Vol. 41 Issue (5): 42-46,50
0
基于真彩色高分辨遥感影像稀疏植被覆盖检测[PDF全文]
黄昌狄1,2, 徐芳1    
1. 武汉大学测绘学院,湖北 武汉,430079;
2. 浙江省测绘质量监督检验站,浙江 杭州,310000
摘要: 以视觉注意机制和模糊ART网络模型为理论基础,提出基于HSV颜色模型的影像植被显著性算法,结合模糊ART网络模型和影像特征,对影像进行自组织、自适应分类,实现稀疏植被信息的自动化提取。实验结果表明,本文算法对真彩色影像中具有不同分布特性的稀疏植被的提取效果较好,植被提取总体精度皆在90%以上,同时具有较高的Kappa系数,优于易康软件的植被提取结果。
关键词: 真彩色遥感影像     稀疏植被     视觉注意     植被显著性     模糊ART    
Extraction of Sparse Vegetation Based on True Color High Resolution Remote Sensing Image
HUANG Changdi1,2, XU Fang1    
1. School of Geodesy and Geomatics, Wuban University Wuhan 430079, China;
2. Quality Inspection and Testing Station for Surveying and Mapping of Zhejiang Province, Hangzhou 310000, China
First author: HUANG Changdi, master, assistant engineer, mainly engaged in digital photogrammetry. E-mail:542167936@qq.com
Corresponding author: XU Fang, PhD, associate professor, mainly engaged in teaching and research of digital photogrammetry and romote sensing image interpretation. E-mail:fxu@sgg.whu.edu.cn
Foundation support:The National Key Technology Support Program-Geographical Conditions Monitoring Technology Platfrom Project (2012BAH28B03)
Abstract: Based on visual attention mechanisms and fuzzy ART network model, this paper proposes a vegetation saliency algorithm of HSV color model. Combing vegetation saliency with fuzzy ART network model, the sparse vegetation is automatic extracted by self-organization and adaptive classification. Experiments show that the proposed algorithm can well extract sparse vegetation of different distribution characteristics in true color images. The accuracy of vegetation extraction is more than 90%, and the Kappa coefficient is higher.The vegetation extraction results of the proposed algorithm are better than eCognition software’s.
Key words: true color remote sensing image     sparse vegetation     visual attention     vegetation saliency     fuzzy ART    

植被覆盖情况是地理国情普查的重要内容之一,同时稀疏植被在维持生态平衡中发挥着重要作用,因此针对稀疏植被覆盖检测展开研究具有必要性。目前,植被覆盖检测方法有多种,可大致分为3类:①基于植被光谱特征的提取方法[1-3];②基于植被纹理特征的提取方法[3, 4],该类方法通过将影像纹理特征与分类方法相结合的方式,实现植被信息的获取;③其他植被提取法[5],该类方法多为人工神经网络与影像特征相结合,实现植被信息的监督或非监督分类,然而该算法运算量较大。

综上所述,现有方法多数以多光谱遥感影像为研究对象,基于影像的多光谱信息,开展植被提取研究和实验。而针对真彩色遥感影像开展稀疏植被提取方法的研究则较少。因此,本文以视觉注意机制和模糊ART网络模型为理论基础,以真彩色高分辨率遥感影像为研究对象,提出稀疏植被自动化提取算法。

1 颜色模型与视觉显著性 1.1 颜色模型

颜色模型能够实现科学地定量描述和使用颜色,通过坐标的方式来描述色彩空间,即每个色彩特征由坐标系统中的某一个点位坐标来表示。常用的颜色模型包括RGB模型、HSV模型、Lab模型、CMY模型等。不同颜色模型对植被色彩特征的表述力不同。本文在判断和选取颜色模型时,主要是判断在该颜色模型中植被的显著程度是否较高、是否易与其他地物区分开来。图 1给出了多幅实验影像在不同颜色模型中的显著程度。

通过图 1中实验影像的不同颜色模型的对比分析,发现植被在Lab颜色模型中其显著程度低(见图 1(b)),图像被模糊了,不易发现植被;在CMY颜色模型中,植被的亮度值高,易被发现,但在该颜色模型中阴影和植被的色彩特征相近(图 1(c)中被圈处),不易区分,容易降低植被的提取精度;在HSV颜色模型中,植被显著程度高(图 1(d)中绿色),易被发现,同时,易与其他地物相互区分,例如阴影(图 1(d)被圈处)。因此,本文选取HSV颜色模型来构造植被显著空间,然后计算植被视觉显著度。

图 1 植被颜色模型对比 Figure 1 Comparison of Vegetation Color Models

1.2 植被显著性

视觉显著性是基于人类的注意力机制和认知心理学的视觉生物模型,表现出人对图像的某部分的关注程度。自Itti等[6, 7]提出视觉显著模型以来,大量的视觉显著性算法应运而生,用于图像分类、目标识别、图像压缩等领域,如GBVS[8]算法、AC[9]算法等等。其中常用的是Achanta等[9]提出的基于Lab颜色模型的显著性数学模型,如公式(1)所示,

$S\left( {x,y} \right) = \left\| {{I_u} - {I_{whc}}\left( {x,y} \right)} \right\|$ (1)

式中,IuIwhc(x,y)都为[L,a,b]T特征向量,Iu为影像在Lab颜色模型中的各通道均值,Iwhc(x,y)为各个像元在高斯差分滤波后的灰度值;‖·‖为欧氏距离表达式。

由于Achanta的算法为“自底向上”的注意模型,该算法仅由影像波段信息本身驱动。基于稀疏植被信息提取这一特定目的,结合在HSV颜色模型中对植被的色调值、饱和度值的统计分析,通过“一增二改”的方式对Achanta的算法进行改进和优化,实现植被显著图的获取。“一增”为:添加影像预处理阶段,在消除高频影像噪声的基础上,结合阈值分割等图像处理手段,实现对影像的预处理,降低阴影对植被检测的影响。“二改”为:①Achanta算法的显著图获取过程是基于Lab色彩空间,而本文算法则采用植被显著性强的HSV色彩空间,因为植被在Lab颜色模型中其显著程度明显低于其在HSV颜色模型中的显著程度;②Achanta算法是以Lab色彩空间各通道的均值为基准特征向量,而本文算法则以HSV色彩空间的植被色彩显著值为基准特征向量,其特征向量值以统计分析的方式加以确定,即(120,50,20)。

图 2所示,实验对比了经典的Itti显著性算法、Achanta的显著性算法和本文的植被显著性算法。经典Itti显著性算法对植被显著程度的增强效果差,如图 2(b)中“高亮”显示的区域大多为蓝色屋顶等,同时经典Itti显著性算法降低了显著图的分辨率,使影像细节信息丢失。原有Achanta算法虽然显著图分辨率高,但植被显著性存在着不确定性,如图 2(c)中第2幅和第4幅影像的植被显著程度高,而第1幅和第3幅影像的植被显著程度低,不易引起视觉注意。本文算法所得显著图中植被的显著程度高,容易引起视觉注意,如图 2(d)的影像中,植被都处于“高亮”显示状态,容易与其他地物区分。特别是图 2中红线圈出的部分,原图中显示为房屋阴影,Achanta算法将其显示为“高亮”,会被错误地认作植被,而本文算法将其显示为“低亮”,会被正确地认为是非植被。

图 2 显著性算法对比 Figure 2 Comparison of Saliency Algorithms

通过将本文植被显著算法与Itti显著算法和Achanta显著算法的对比分析,发现本文植被显著性算法实现了植被显著区域的获取,对真彩色影像中植被的显著度的测算具有很好的适用性。

2 模糊ART

自适应共振理论(ART)是一种自组织产生认知编码的神经网络[10],其最大的特点就是解决一般网络难以解决的适应性和稳定性问题,一般网络在学习新模式时,常对已经学习的样本产生影响,而ART网络的自组织反馈功能、增量式学习功能则较好地解决了该困难,使该网络既能识别那些较少出现的类型,同时又能在出现噪声时相对稳定,识别出已经学习过的类型。现有的ART网络模型有ART1、ART2、Fuzzy ART和ARTMAP等。

模糊自适应共振网络(FART)是一种无教师、自组织的神经网络。它通过内部单元之间的相互作用,实现信息之间的交互。Fuzzy ART与人类视觉系统中的某些特性相似,可以处理模糊信息,能实时进行自学习,能自动将注意转移至已学习过的样本上,能自动确定类别数等等。本文利用模糊ART算法实现对真彩色影像稀疏植被的提取。

模糊ART算法的工作流程为[11]:首先将初始样本的特征值输入模糊ART网络中,设置合适的警戒值和学习率,对样本信息实现自组织、自适应的非监督分类,完成对模糊ART网络模型的训练和学习;其次,基于原始影像的相关特征信息,结合已经完成训练和学习的网络模型,实现对整幅影像的分类和植被信息的提取。

该网络模型主要参数有:警戒值ρ、类别选择参数σ、学习率参数β。类别选择参数ρ的值越小,对分割的结果影像越小,特别是当0<σ<5时,分割的结果几乎不受影响,在实验中,一般取σ=1。学习率参数对学习速度有影响,β越大,则对输入的特征向量学习越快。ρ表示输入向量与权值之间模糊相似度的门限,它反映了各个类别中同类样本之间的最小相似度,影响分类数目和各类样本的数目[12]

3 稀疏植被提取流程

本文以真彩色高分辨率遥感影像为出发点,结合植被显著性分析和模糊ART网络模型,提出了稀疏植被覆盖信息自动化提取算法,流程图如图 3所示。本文算法主要由两部分构成。

图 3 植被提取流程图 Figure 3 Flow Chart of Vegetation Detection

第1部分是以完成模糊ART网络模型对“样本信息”的学习、记忆和从分类结果中获取植被类名为目的。该部分的具体过程可分为4个阶段:①影像预处理阶段。该阶段首先对影像进行高斯平滑,降低或者消除影像中高频噪声的影响;其次,基于对影像中阴影分布情况进行分析,判断是否需要对影像中的阴影区域进行识别和剔除,若需要,则根据与原始影像的色调灰度图,结合OTSU阈值分割法,对影像中阴影区域进行识别,并通过置0的方式消除阴影对分类的影响。②植被显著图提取阶段。结合影像中的波段信息,实现真彩色遥感影像植被显著图的提取。③植被样本区域提取阶段。基于植被显著图,根据显著图的直方图分布特征,提取植被样本区域。在样本区域中,可能存在某些“杂质”,但植被的像元数所占比例最大。④训练神经网络和植被类名提取阶段。基于植被样本区域的LBP纹理特征、色调特征、饱和度特征,结合模糊ART网络,对样本区域进行自适应、自组织分类。在分类结果中,依据在样本区域中植被像元数占比最大的这一特性,确定植被类名。

第2部分以实现真彩色高分辨率遥感影像中稀疏植被信息的提取为最终目的。基于已完成学习和记忆的模糊ART网络,结合整幅影像的LBP纹理特征、色调特征、饱和度特征,对影像进行自适应分类,并依据植被类名从分类结果中提取植被信息。

4 实验与分析

为验证本文所提出的稀疏植被提取算法的适用性和精度,本文针对低空真彩色影像和谷歌真彩色影像两种情况展开实验,对本文的稀疏植被提取算法的适用性做进一步分析,同时利用eCognition软件提取植被覆盖结果,对比分析本文算法的植被提取精度。

4.1 基于具有分布特性的稀疏植被提取实验

基于对稀疏植被分布特性的分析,本文将稀疏植被的分布特性划分为两大类:①“小集群”类,该类植被的分布特性为植被在小范围内连续、成片分布,同时在影像中的覆盖度低,如道路两侧的行道树、小片森林等;②“单独零散”类,该类植被的分布特性为单颗或多颗零散分布为主,即使在小范围内,也不连续成片分布,如建筑群中的“装饰性”树木等。

1)实验1:“小集群”类植被。

在本次实验中,以具有“小集群”类分布特性的低空影像为实验对象,采用本文植被提取算法、易康软件、人工解译依次对实验对象进行植被信息提取。不同方法的植被信息提取结果如图 4所示。图 4(a)为具有“小集群”类分布特性的原始实验影像,图 4(b)为人工植被提取结果图,图 4(c)为易康软件的植被提取结果图,图 4(d)为本文算法的植被提取结果图。通过将各个结果图进行对比分析,发现由于影像中地物类别复杂,易康软件和本文算法的结果图中都存在较多的错分现象,但是相比较而言,易康软件的错分现象较多,导致结果图中小噪声较多。而本文算法经过影像的预处理,降低或消除了阴影的影响,提升了结果图的整洁性,最终实现植被提取精度的提升。

图 4 实验1结果图 Figure 4 Results of Experiment 1

图 4(b)人工植被提取结果图为参照图,对易康的植被提取结果图和本文算法的结果图依次计算混淆矩阵,两者的精度对比如表 1所示,可见,本文算法的植被提取的总体精度和Kappa系数都优于易康软件。

表 1 实验1精度对比 Table 1 Accuracy Comparison of Experiment 1

实验结果表明,本文的植被提取算法对具有“小集群”类分布特性的稀疏植被影像具有较好的适用性,且具有较好的植被提取精度。

2)实验2:“单独零散”类植被。

在本次实验中,以稀疏植被具有“单独零散”类分布特性的低空影像为实验对象,采用本文算法、易康软件、人工解译的方式,依次对实验对象进行植被信息提取实验,不同方法的实验结果如图 5所示。图 5(a)为具有“单独零散”类分布特性的原始实验影像,图 5(b)为人工植被提取结果图,图 5(c)为易康软件的植被提取结果图,图 5(d)为本文算法的植被提取结果图。通过将各个结果图进行对比分析,发现易康和本文算法的植被提取结果大致相似。但是在易康的结果图中存在较多的小噪声,即由于错分现象而产生的小区域,即说明易康软件对植被与其他地物的鉴别能力较弱。相较而言,本文算法的结果图则显得清晰而明确,错分现象较少。

图 5 实验2结果图 Figure 5 Results of Experiment 2

图 5(b)人工植被提取结果图为参照图,计算混淆矩阵,获得易康和本文算法两者的精度如表 2所示。可见,本文算法的总体精度和Kappa系数都优于易康软件。

表 2 实验2精度对比 Table 2 Accuracy Comparison of Experiment 2

基于本次实验结果,可知本文提出的稀疏植被提取算法针对具有“单独零散”类分布特性的稀疏植被的真彩色影像具有较好的适用性。

4.2 google影像植被提取实验

实验以从google地图中随机截取的某地区卫星影像为实验对象,采用本文算法、易康软件、人工解译的方式,依次开展稀疏植被提取实验并做对比分析。实验影像如图 6(a)所示,该幅影像为美国纽约某一地区的卫星影像,其标识的空间分辨率为0. 5 m,植被分布特征兼具“小集群”类和“单独零散”类,即影像中包含道路两侧行道树,同时,包含建筑群中夹杂的零星植被。

采用不同方法依次对实验影像进行植被信息提取实验,其结果如图 6所示。

图 6 实验影像及结果图 Figure 6 Experimental Image and Results

图 6中,图 6(b)为人工提取结果图,图 6(c)为易康提取结果图,图 6(d)为本文算法提取结果图。通过各个结果图之间的对比分析,发现以google的真彩色影像为实验影像,易康和本文算法的提取结果大致相当,但是易康的结果图中存在较多由于地物错分而引起的“噪声”。

图 6(b)人工提取图为参照图,计算混淆矩阵,如表 3所示,可以看出,本文算法的植被总体精度为97. 88%,Kappa系数为0. 889;易康总体精度为93. 30%,Kappa系数为0. 719。

由以上的实验结果可以得出,本文算法能够有效的对google真彩色影像中的稀疏植被进行提取。与传统的监督分类相对比而言,本文算法不需通过人机交互提取样本点,能够实现样本的自动化提取。与易康软件想对比而言,本文算法在稀疏植被提取精度上有所提高。

表 3 google影像实验精度对比 Table 3 Accuracy Comparison of google Image

5 结束语

随着卫星影像空间分辨率的提高,影像信息不断丰富,影像结构和纹理更加突出,同时航空摄影技术的发展和兴起,真彩色影像的获取途径更加的多样化,与高光谱影像相比较而言,真彩色遥感影像具有实时性强、门槛低等一系列优点,因此,如何快速、有效地从真彩色遥感影像中获取感兴趣的信息逐步成为当前的研究热点。

本文以视觉注意机制和模糊ART网络模型为理论基础,以真彩色高分辨率遥感影像为研究对象,基于改进的显著性算法,结合阈值分割和形态学运算,自动化提取植被样本;基于模糊ART网络模型,结合植被样本和待分类区域的色彩特征和纹理特征,实现了真彩色高分辨遥感影像稀疏植被信息的自动化提取。通过与易康软件的植被提取结果进行对比分析,认为本文提出的稀疏植被算法具有良好的适用性,植被提取精度较高。

参考文献
[1] 徐芳, 黄昌狄. 基于Worldview影像的植被自动提取研究[J]. 测绘地理信息,2015,41(1) : 47–50.
Xu Fang, Huang Changdi. Automatic Extraction of Vegetation Based on Worldview Images[J]. Journal of Geomatics,2015,41(1) : 47–50.
[2] 许凯, 秦昆, 杜鹚. 基于AdaBoost的高分辨率遥感影像城市绿地提取算法[J]. 计算机工程与应用,2009,44(20) : 23–25.
Xu Kai, Qin Kun, Du Yi. New Algorithm of Extraction of Urban Vegetation from High Resolution Image Based on AdaBoost[J]. Computer Engineering and Applications,2009,44(20) : 23–25.
[3] 陈利, 林辉. 基于K-T变换和主成分变换的植被信息提取[J]. 中南林业科技大学学报,2014,34(6) : 81–84.
Chen Li, Lin Hui. Vegetation Information Extraction Based on K-T Transform and Principal Component Transform[J]. Journal of Central South University of Forestry & Technology,2014,34(6) : 81–84.
[4] 詹总谦, 来冰华, 万杰, 等. 一种利用纹理特征和朴素贝叶斯分类器检测近景影像植被的方法[J]. 武汉大学学报·信息科学版,2013,38(6) : 665–668.
Zhan Zongqian, Lai Binghua, Wan Jie, et al. Vegetation Dection of Close-Range Images Based on Texture Features and Naïve Bayes Classifier[J]. Geomatics and Information Science of Wuhan University,2013,38(6) : 665–668.
[5] Xu Fang, Jiang Weiwei. Biological Vision for Urban Vegetation Detection in Color Remote Sensing Imagery[C]. The 3rd International Conference on Remote Sensing, Environment and Transportation Engineering(RSETE 2013),Nanjing,China,2013
[6] Itti L, Gold C, Koch C. Visual Attention and Target Detection in Cluttered Natural Scenes[J]. Optical Engineering,2001,40(9) : 1784–1793.
[7] Itti L, Koch C, Niebur E. A Model of Saliency-Based Visual Attention for Rapid Scene Analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11) : 1254–1259.
[8] Harel J, Koch C, Perona P. Graph-based Visual Saliency[A]. Advances in Neural Information Processing Systems[C]. Cambridge:MIT Press,2007,19:545-552
[9] Achanta R, Hemami S, Estrada F, et al. Frequency-tuned Salient Region Detection[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, CVPR Workshops, Miami, Florida, USA, 2009
[10] 骆剑承, 王钦敏, 周成虎, 等. 基于自适应共振模型的遥感影像分类方法研究[J]. 测绘学报,2000,31(2) : 145–150.
Luo Jiancheng, Wang Qinmin, Zhou Chenghu, et al. Adaptive Resonance Theory for Classification of Remotely Sensed Image[J]. Acta Geodaetica et Cartographica Sinica,2000,31(2) : 145–150.
[11] 刘宇红, 刘桥, 任强. 基于改进的模糊ART的语音信号端点检测与切分[J]. 系统工程与电子技术,2004,26(8) : 1151–1154.
Liu Yuhong, Liu Qiao, Ren Qiang. Speech Signal Endpoint Detection and Separation Based on Improved Fuzzy ART[J]. Systems Engineering and Electronics,2004,26(8) : 1151–1154.
[12] 余粉香, 王光霞, 万刚. 大数据量遥感影像的快速调度与显示[J]. 海洋测绘,2006,26(2) : 27–30.
Yu Fenxiang, Wang Guangxia, Wan Gang. Rapid Allocation and Display of Massive Remote Sensing Image[J]. Hydrographic Surveying and Charting,2006,26(2) : 27–30.