文章信息
- 付迎春, 徐颂军, 陈蜜.
- Fu Yingchun, Xu Songjun, Chen Mi.
- 基于MODIS影像梯度的林火边界提取方法
- Extraction of Forest Fire Edge Line Based on MODIS Imagery Gradient
- 林业科学, 2008, 44(7): 56-61.
- Scientia Silvae Sinicae, 2008, 44(7): 56-61.
-
文章历史
- 收稿日期:2007-12-05
-
作者相关文章
2. 首都师范大学教育技术系 北京 100037
2. Department of Educational Technology, Capital Normal University Beijing 100037
森林火灾的识别对于全球变化和区域生态系统的发展具有重要的意义,国内外学者对火灾监测和制图展开了广泛的研究(Key et al., 2002; Giglio et al., 2003; George et al., 2006),包括使用欧空局Envisat卫星携带的高级沿轨迹扫描辐射计ASTER传感器、美国陆地卫星LANDSAT 5 TM传感器等数据。中分辨率成像光谱仪(MODIS)具有中空间分辨率(3通道250、500、1 000 m)、较广的光谱覆盖范围(0.620~14.385 μm,共36个波段)以及每天2次覆盖全球的强大动态监测能力等特点,因此被广泛用于各种尺度的森林火灾监测,3通道共36波段的影像数据为局部(local)、区域(region)和全球(global)的火灾制图提供了新的数据源(Key et al., 2002);而随着更多的局域火灾的实时动态监测以及灾后生态恢复研究等工作的开展(Key, 2005),需要进一步提取火烧迹地的火线特征参数,即火烧迹地边缘和火的动态传播方向。
基于遥感的传统火灾监测方法可分为火点(hotspot)探测和火灾后迹地(burn scar)识别两类。火点探测通常基于火的热学性质,使用中红外波段(3.550~3.930 μm)对火点进行实时监测(Kaufman et al., 1990; Li et al., 2000; 2001; Justice et al., 1996; 谭明艳等, 2007)。火灾后迹地识别应用较广泛的方法有针对归一化植被指数NDVI影像的火灾前后差值法(Li et al., 2000)、回归分析法(Li et al., 2001)等,结合NDVI反映的植被覆盖图和火点监测结果,在去除了植被时相上的NDVI差异之后,利用局部自动阈值的方法来判断火灾迹地边缘像元。而局部阈值法常出现目标缺失与伪影的缺点,同时由于红外图像具有低对比度、低信噪比等特点,传统的边缘检测方法应用到红外图像上,难以得到理想的边缘图像。因此,本文将基于图像视觉处理手段,结合MODIS的多波段影像数据展开边缘火线的检测方法研究。
1 材料与方法 1.1 研究区域研究区域选取在中俄边境的黑龙江大兴安岭(图 1),2004年10月12日发生火灾,火灾区在123°—135°E,50°—52°N,该区森林茂密、地形复杂,加之秋季干燥、风力强劲,大火波及大兴安岭、黑河、伊春等6个地区,火灾持续到10月21日被扑灭。本文选取了2004年10月17日火势较大、云影响较小的清晰影像数据进行研究,以利用后续算法检测活火线。图 1上1、2区域的燃烧时间较长、范围较广,表现为该区主要森林覆盖已经燃烧完,火烧迹地旁是裸地或燃烧后的灰烬,在1和2中的植被间零落分布着表现为突出目标的小火区域,本文选择1,2作为代表性研究区域。
![]() |
图 1 研究区域(中俄边境,火灾区域为1和2) Figure 1 Study region on the border of China and Russia (1, 2) |
本文使用了上午星Terra卫星(地方时上午过境)所携带的MODIS传感器数据,选择了3个通道的部分波段,包括250 m的1、2波段,500 m的6、7波段和1 km的16、17波段,数据属性列于表 1。对原始数据解码和定标后得到带有地理定位信息的MODIS Level 1B数据,再经过几何纠正和辐射纠正,生成了反射率数据(可见光波段)和亮度温度数据(红外波段)。
![]() |
图像边缘是指周围像素灰度、颜色或纹理有阶跃变化或屋顶变化的像素点的集合,是由于某些物理性质和表面特征、几何形状以及反射率改变的结果(邵巨良, 1993)。火烧迹地边缘即是红外波段上火灾目标与背景的反射值和强度发生变化的区域。传统的边缘检测方法包括canny、sobel算子等,通过图像上的影像梯度表示2种像素在空间上的对比和变化。在3波段影像梯度融合能提高边缘定位精度与增强边缘细节的基础上(Saber et al., 1997),并顾及MODIS 3通道不同分辨率的红外波段影像的互补特性,本文提出了基于多波段影像梯度检测火线的方法,针对火烧迹地边缘的非规则性和复杂性,拟综合采用多种技巧处理。首先,在生成MODIS多波段影像梯度幅值分割图的基础上,基于多结构元素的数学形态算子处理断线和抑制噪声,并采用零交叉二值化方法辅助的“非极大抑制方法”提取边缘火线。最后通过对比传统方法sobel算子对单波段影像的边缘检测结果,验证方法的可行性,并将本文提取的火线与火烧迹地的NDVI影像叠置后进一步验证方法的有效性。
1.3 光谱指数通过分析,选择MODIS 250 m分辨率的1/2波段按式(1)计算NDVI指数,红外波段上的火烧迹地像素灰度值的增加使NDVI值趋近负值,在影像上表现为显著的黑色区域(图 1中研究区1和2)。
![]() |
(1) |
式中,Rnir,Rred分别是近红外波段、红波段的反射率。
1.4 影像边缘检测 1.4.1 多波段影像边缘检测单一红外影像检测存在目标和背景的灰度分布不均匀、对比度差等问题。按式(2)~(8)计算多波段影像梯度幅值,并生成边缘分割图,实现火烧迹地与背景其他目标的分割。
设多波段影像的集合为:I=[I1, Ii, …, In],其中n为波段总数,Ii表示第i波段,影像上某点在多个波段上的梯度矩阵D为
![]() |
(2) |
(u,v)是某点的空间坐标,
![]() |
(3) |
矩阵(3)的最大特征值是:
![]() |
(4) |
式中,
![]() |
(5) |
因此,多波段影像的边缘梯度幅值计算公式是
![]() |
(6) |
为处理多波段梯度边缘断线和抑制噪声,采用数学形态学方法进行处理。数学形态学是以形态结构元素为基础对图像进行分析的数学工具,其基本思想是用具有一定形态的结构元素去度量和提取图像中的对应形状以实现对图像的分析和识别。这里主要采用使用膨胀和闭合2种运算,其中,膨胀运算可用于图像暗细节的消除和亮区域边缘的增强,而闭合可使轮廓线变得更为光滑及消除图像暗细节并保持亮区域不变(Gonzalez et al., 2002;杨晖等,2005)。综合应用二者构建抗噪型边缘检测算子如式(7):
![]() |
(7) |
其中f(x, y)是原始的火烧迹地像素,而G(x, y)是经形态学处理后的边缘像素,等于对f(x, y)的膨胀f(x, y)⊕b与闭合f(x, y)·b的结果差, b是结构元素的模板。
若采用单一结构元素不能被检测出某些方向的边缘,因而复杂的火烧迹地目标无法得到完整的轮廓。若采用对称的结构元素,虽然可以兼顾不同方向的边缘,但又会减弱对图像边缘的方向敏感性(Gonzalez et al., 2002)。通过构造以3×3像素大小为窗口的5种不同结构模板b1、b2、b3、b4、b5,构建形态学梯度图像边缘检测算子。
b1=[0 1 0; 0 1 0; 0 1 0] (检测图像垂直方向边缘),
b2=[0 0 0; 1 1 1; 0 0 0] (检测图像水平方向边缘),
b3=[0 0 1; 0 1 0; 1 0 0] (检测图像与水平夹角45°边缘),
b4=[1 0 0; 0 1 0; 0 0 1] (检测图像与水平夹角135°边缘),
b5=[0 1 0; 1 1 1; 0 1 0] (检测图像各个方向的边缘, 但对边缘方向不敏感)。
将5个结构元素带入公式(7)得到图像各个方向的边缘检测信息G1、G2、G3、G4、G5,按加权系数(设为0.2)对5个检测结果加权计算火线边缘信息。
![]() |
(8) |
针对影像梯度幅值的一阶微分特点,通过比较多波段影像的水平、垂直相邻像素的梯度幅值来确定真正的边缘,采用类似canny算子的“磁滞现象”,按相邻极大值原理实现边界点的搜索。首先使用直方图统计估计出梯度幅值图的2个阈值,包括高阈值TH和低阈值TL,如果G(i, j)>TH或G(i, j)>TL则L(i, j)=1,先将大于2个阈值的像素判断为可能的边界点,再判断该边缘点的水平或垂直相邻像素的梯度值是否大于或等于高阈值TH,如果是则标记为边界点,否则为零;同时,使用一阶微分梯度值的零交叉特性来细化边缘,实现单像素的边缘宽度的定位要求,最后跟踪标记的边缘像素连为边线。若分别使用Gx(i, j),Gy(i, j)代表水平或垂直方向的梯度分量,判断条件是:
![]() |
(9) |
![]() |
(10) |
首先进行多波段影像梯度分析,根据MODIS数据的主要用途和单波段红外影像的目视对比,排除易受烟雾影响的短波波段(如1,3,4,5,7等波段),选择具有对比度显著的2,6,16,17波段组合,研究区1和2的多波段影像梯度幅值边缘分割效果见图 2(a)、(c);应用5种结构元素的抗噪型形态算子处理,得到较完整的火烧迹地(b)、(d)。此外,本文应用传统边缘检测方法sobel算子分别对16、17的单波段影像提取研究区1和2的火线对应[图 3(a)、(b)和图 3(d)、(e)],并根据图中2(b), (d)影像直方图统计阈值,结合式(11)、(12)提取得到较光滑的火线见图 3(c), 图 3(c)(f);最终将火线叠置在NDVI的火烧迹地(显著的黑色区域)上,通过目视对比火线与NDVI火烧迹地边缘的符合效果见图 4(a), (b)。
![]() |
图 2 多波段梯度幅值边缘图和形态算子处理结果图 Figure 2 Multi-bands imagery gradient edge map processed with morphological 研究区1结果(a)(b),研究区2结果(c)(d) Region 1(a)(b), region 2(c)(d). |
![]() |
图 3 单波段和多波段火线检测结果对比示意 Figure 3 Comparing results of sobel operators with multi-bands imagery gradient algorithm sobel算子提取16、17波段边缘:研究区1为(a)(b),研究区2为(d)(e);基于图 2(b)的多波段梯度边缘为(c);基于图 2(d)的多波段梯度边缘为(f)。Edge of sobel on band 16, 17 for region 1(a)(b) and 2(d)(e). Edge of multi-bands imagery gradient method here is (c) based on Fig. 2(d), (f)based on Fig. 2(d). |
![]() |
图 4 多波段梯度边缘与NDVI影像叠置 Figure 4 Active fire lines superimposed with the Normal Difference Vegetation Index (NDVI) |
通过对比图 2和图 3,可以明显看出图 2中的多波段梯度幅值图(a)、(c)比图 3中的(a)、(b)、(d)、(e)有更丰富的边缘细节和更完整的轮廓。证明了针对单波段影像(16/17波段)使用sobel边缘算子将丢失部分信息(图 3的1、2标识)。图 4反映了提取火线与NDVI火烧迹地边缘的符合程度较高,如前所述,NDVI影像可以真实地反映火烧迹地的燃烧程度,同时火线梯度也可以表达火的燃烧强度;火线上高梯度幅值像素点是正在燃烧的活火点,相应连续火线相邻的是正在燃烧和燃烧较为完整的区域,低梯度幅值像素点则代表燃烧不充分的火点,断续边线相邻的则是不连续和不完整的燃烧。图 4中研究区1的燃烧程度不均匀,左下角为燃烧不充分区域,因此提取得到断续的边缘。区域2的燃烧较为均匀,因此提取的火线较为完整和平滑。显然参考NDVI影像通过目视解译,将二者叠置能很好的验证火线提取的有效性,同时若二者取交后将有效去除部分虚假信号,如图 4(a)(b)中1和2标识出的地貌线,虽与火烧迹地有相似的NDVI特性,但对比图 2的(c)(f)经过处理可基本消除类似的虚假边线。
3 结论与讨论1) MODIS已经被广泛用于火灾监测和制图,传统利用像元的热学性质识别火点和估算面积已不能满足火灾动态监测的需求,正如火灾蔓延模型中需要实时的火线参数包括火线轮廓和火向等,因此需要发展一种能准确提取火线的方法,正是本文研究的立足点。
2) 从图像视觉分析角度,针对红外影像对比度差、高信噪比特点,使用传统边缘检测算子如sobel方法将丢失部分边缘信息。因此本文发展了针对多波段影像的梯度边缘检测算法,通过融合250 m的2波段、500 m的6波段、1 000 m的16、17 4个波段得到250 m的多波段梯度幅值图,进一步用5种不同结构元素的抗噪型形态算子处理,在有效增强边缘信号、降低噪声的同时提高空间分辨率,最后应用零交叉二值化方法辅助的“非极大抑制方法”提取火线,实现单像素的边缘细化并提高边缘定位精度。通过试验验证了算法的可行性和有效性。
3) 从影像解译角度,研究发现归一化植被指数NDVI影像与本文的多波段影像梯度火线都可以反映森林火灾的燃烧强度。完整的火烧迹地的NDVI指数趋于负值,连续的火线代表高梯度值的活火点和正在燃烧的火区,二者可以相互验证。同时火线上的梯度幅值将有助于预测火灾传播方向,对于火灾的动态监测具有重要的意义,如何基于火线梯度预测火向将是进一步研究的主要内容。
邵巨良. 1993. 小波理论、影像分析与目标识别. 武汉: 武汉测绘科技大学出版社.
|
谭明艳, 陈仲兴. 2007. 利用MODIS数据识别草原火灾迹地的方法研究. 遥感学报, 11(3): 342-352. |
杨晖, 张继武. 2005. 数学形态学在图像边缘检测中的应用研究. 辽宁大学学报:自然科学版, 32(1): 50-53. |
Giglio L, Descloitres J, Justice C O, et al. 2003. An enhanced contextual fire detection algorithm for MODIS. Remote Sensing of Environment, 87(2): 273-282. |
George C, Rowland C, Gerard F, et al. 2006. Retrospective mapping of burnt areas in Central Siberia using a modification of the normalized difference water index. Remote Sensing of Environment, 104: 346-359. DOI:10.1016/j.rse.2006.05.015 |
Gonzalez R C, Woods R E. 2002. Digital image processing. 2nd ed. Boston: Addison-wesley Longman Publishing Co. Int.
|
Justice C O, Kendall J D, Dowry R R, et al. 1996. Satellite remote sensing of fires during the SAFAR I Campaign using NOAA advanced very high resolution radiometer data. Journal of Geophysical Research, 101: 23851-23863. DOI:10.1029/95JD00623 |
Kaufman Y, Tucker C, Fung I. 1990. Remote sensing of biomass burning in the tropics. Journal of Geophysical Research, 95: 9927-9939. DOI:10.1029/JD095iD07p09927 |
Li Z, Nadon S. 2000. Satellite-based mapping of canadian boreal forest fires : Evaluation and comparison of algorithms. International Journal of Remote Sensing, 20(16): 3071-3082. |
Li Z, Kaufman Y J, Ichoku C, et al. 2001. A review of AVHRR based active fire detection algorithms: Principles, limitations and recommendations//Ahern F J, Goldmmer J G, Justice C O. Global and Regional Vegetation Fire Monitoring from Space: Planning a Coordinated International Effort. SPB Academic Publishing, Hague.
|
Key C H, Benson N. 2002.Measuring and remote sensing of burn severity//Coffelt J L, Livingston R K. USGS Wildland Fire Workshop, Los Alamos, NM, October 31-Nov. 3, 2000, USGA Open-File Report, 02-11: 55.
|
Key C H. 2005.Remote sensing sensitivity to fire severity and fire recovery//de la Riva, Chuvieco E. Proceedings of the 5th international workshop on remote sensing and GIS applications to forest fire management: Fire effects assessment. Universidad de Zaragoza, Spain, 29-39.
|
Saber E, Tekalp M, Bozdagi G. 1997. Fusion of color and edge information for improved segmentation and edge linking. Image and Vision Computing, 15: 769-780. DOI:10.1016/S0262-8856(97)00019-X |