中国科学院大学学报  2022, Vol. 39 Issue (4): 512-523   PDF    
基于不同骨架UNet++网络的建筑物提取
古煜民1,2, 阎福礼1     
1. 中国科学院空天信息创新研究院, 北京 100094;
2. 中国科学院大学资源与环境学院, 北京 100190
摘要: 基于深度学习方法的建筑物自动提取具有精度高、速度快的技术特点, 对城市规划、防灾减灾等的行业应用具有重要意义。针对高分辨率遥感影像建筑物自动提取, 引入深度学习特征功能模块和传统遥感应用技术验证环节, 形成不同骨架模块、UNet++网络和真实性检验的建筑物遥感提取功能模块嵌合的深度学习业务化应用技术体系, 通过VGG、ResNet和Inception等传统卷积网络模型骨架对基础网络进行改造, 提升模型运行效率, 强化模型特征学习能力, 通过真实性检验验证算法的有效性、适用性, 展示完整的遥感应用技术链条。以Mnih公开的马萨诸塞州建筑物数据集为数据源, 和传统非全卷积网络模型和全卷积网络模型等方法进行对比分析, 结果表明通过增加模型深度和宽度可以有效提升模型建筑物提取效果, 基于InceptionV3-UNet++骨架模型在召回率、准确度、CSI、F1分数、Kappa系数和总精度表现最为优秀, 分别达到85.14%、90.50%、0.7816、0.8774、0.8504和95.57%, 并在WHU数据集上验证了它的鲁棒性。该方法在建筑物提取结果和细节上都有显著提高, 特别是对复杂不规则建筑物的提取上, 将极大促进真实、复杂、大场景高分辨率影像的建筑物提取遥感应用。
关键词: 深度学习    高分辨率遥感影像    卷积神经网络    建筑物提取    图像分割    
Building extraction based on UNet++ network with different backbones
GU Yumin1,2, YAN Fuli1     
1. Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China;
2. College of Resources and Environment, University Academy of Sciences, Beijing 100190, China
Abstract: Automatic building extraction methods based on deep learning theory have the technical characteristics of high accuracy and speed, and are of great significance in industrial applications, such as urban planning, disaster prevention and mitigation. This paper introduces the deep learning modules and the traditional remote sensing validation section in the proposed building extraction method in high-resolution remote sensing imageries, forming an operational deep-learning-theory based building extraction technical system that integrates different backbone modules, UNet + + networks, and remote sensing authenticity verification modules. The basic network is transformed through the traditional convolutional network model backbones, such as VGG, ResNet, and Inception to improve the model operational efficiency, strengthen the model feature learning capabilities, verify the effectiveness and applicability of the algorithm through authenticity validation. Taking the Massachusetts building dataset published by Mnih as the data source, a comparative analysis was carried out with the traditional non-full convolutional network model and full convolutional network model. The results show that an increasing in the depth and width of the model can substantially improve the building extraction results. The InceptionV3-UNet + + backbone model has the best performance in recall rate, accuracy, CSI, F1 score, Kappa coefficients, and total accuracy, reaching 85. 14%, 90. 50%, 0. 781 6, 0. 877 4, 0. 850 4, and 95. 57%, respectively, and its robustness is also verified on the WHU datasets. This method has significantly improved the extraction accuracy and the details of the buildings extracted, especially on complex and irregular buildings, which will facilitate the building extraction applications in real, complex, and large scene of high-resolution remote sensing imageries.
Keywords: deep learning    high-resolution remote sensing image    convolutional neural network    building extraction    image segmentation    

建筑物是城市数字化、城市变化检测和快速制图的重要目标,是城市规划、防灾减灾应用的核心承灾体,研究如何利用高新技术精确识别、快速提取和高频次监测建筑物变化信息,不仅具有重要的科学意义,也具有重要的应用价值[1]。随着遥感传感器技术的飞速发展,越来越多的航空、航天高分辨率数据不断涌现。如美国Worldview数据达到0.3 m,中国GF-2号数据达到1 m,中国科学院遥感飞机的ADS-80达到0.5 m,无人机航拍数据可达到0.05 m。高分辨率影像能够精细刻画包括建筑物在内的地物目标的光谱、几何、纹理特征,为高精度建筑物提取提供了可能[2]。但是高分辨率遥感数据的建筑物提取,存在存储数据量大、人工解译工作量大,传统的建筑物提取算法误差大的特点,基于遥感手段的快速、准确、高频次地建筑物自动提取逐渐成为研究的热点。

传统的高分影像建筑物自动提取主要分为4大类:一是多尺度分割提取方法[3-5],最常见的多尺度分割算法为eCongnition的分形网络演化算法(fractal net evolution approach,FNEA)算法[6];二是边缘和焦点检测与匹配的提取方法[7-8],依据影像中不同区域边界灰度级变化,从而检测建筑物边缘实现分割;三是区域分割提取方法[9],有区域生长法、四叉树法和分水岭法等;四是基于数学工具、新理论及多种方法结合的提取方法[10-11]。传统方法在建立模型时往往以人为主观性为主,不能自动地提取建筑物深层特性。

随着计算机图像技术发展,能够主动提取图像深层特征的深度神经网络出现了。比较有代表的深度卷积神经网络有VGG_Net[12],GoogLeNet[13]和ResNet[14]等。随着基于卷积神经网络的目标识别技术在传统图像领域的发展,使得深度学习开始小规模在遥感领域进行应用。Mnih[15]将深度卷积神经网络应用于建筑物目标自动提取,并引入条件随机场对分类结果后期处理,总精度达76.38 %;Saito等[16]在深度卷积神经网络的基础上,将分类器由softmax替换为通道抑制多分类器(channel-wise inhibited softmax),提取总精度为80.87 %。卷积计算的平滑效应造成了有用信息的损失,导致对于建筑物边缘的识别精度较低。2015年全卷积神经网络(fully convolutional networks, FCN)[17]发布,FCN是第一个端对端的图像语义分割网络,此后卷积神经网络模型开始大规模在遥感分类领域应用。刘文涛等[18]基于FCN网络进行微调,对建筑物屋顶进行提取,总精度达到92.39 %。刘浩等[19]基于UNet网络,添加特征激活层,对建筑物进行提取,总精度达到94.72 %。但由于模型结构较为基础,对于复杂建筑物的识别能力受到限制,仍具有可提升的空间。

遥感建筑物提取应用涉及大场景的真实遥感图像,包含大量类似建筑物的复杂场景,如花坛、大棚、水泥地面。本文针对高分辨率影像建筑物自动提取,引入深度学习特征功能模块和传统遥感应用技术验证环节,形成多种不同骨架模块、UNet++网络和真实性检验的建筑物遥感提取功能模块嵌合的深度学习业务化应用技术体系,在UNet++网络的基础上,将经典的卷积神经网络的VGG系列[12]、ResNet系列[14]和InceptionNet系列[13, 20-22]作为骨架对其进行改造,分别在模型深度和广度不同层面对模型进行强化,提升性能,使模型可以更好地学习建筑物轮廓深度信息。加入批量归一化层(batch normalization-layer,BN层)[22],设置DropOut系数[23],使之能取得更好的提取效果,同时针对二分类和数据的特性选择Dice系数[24]结合cross-entropy作为损失函数,平衡训练数据。通过真实性检验验证算法的有效性、适用性,展示完整的遥感应用技术链条。与传统的非全卷积网络模型和全卷积网络模型相比,本文方法在建筑物提取精度上拥有显著的优势。

1 实验方法

本节主要阐述建筑物提取应用的基本流程。首先介绍实验所采用的基础实验原理,然后描述相关基础网络特性及其如何发挥网络优势。为了适应二分类应用任务训练,损失函数采用Dice系数和交叉熵结合的损失函数,并结合传统图像分割和遥感分类相关精度评价表。总体应用流程图以InceptionV3-UNet++模型为例,如图 1所示。

Download:
图 1 建筑物提取流程图 Fig. 1 Building extraction flowchart
1.1 不同骨架UNet++模型

UNet模型[25]以编码器-解码器(encoder-decoder)[26]结构为基础,基本结构如图 2(a)所示。UNet++模型[27]在UNet模型的基础上,结合DenseNet[28]和深度监督[29]原理,其主要结构如图 2(b)所示。和UNet相比,它主要在残差链接部分增加了一些解码器单元并采用残差链接的方法连接起来。其中,每一个单元的计算结构大致如下所示:

Download:
图 2 UNet/UNet++网络结构[27] Fig. 2 Network structure of UNet/UNet++[27]
$ {\rm{ }}{X^{i, j}}{\rm{ = }}\left\{ {\begin{array}{*{20}{c}} {\mathcal{H}\left( {{X^{i - 1, j}}} \right){\rm{, }}}&{j = 0, }\\ {\mathcal{H}\left( {\left[ {\left[ {{X^{i, k}}} \right]_{_{k = 0\prime , n}}^{^{j = 1}}} \right.\left. {u\left( {{X^{i + 1, j - 1}}} \right)} \right]} \right), }&{j > 0.} \end{array}} \right.{\rm{ }} $ (1)

式中:$\mathcal{H}$()表示由卷积层和线性修正单元激活函数组成的单元,u()表示上采样层,X表示残差链接层。以X1, 2为例说明,它是由X1, 0X1, 1和上采样后的X2, 1拼接之后,再经过一次卷积和非线性修正单元得到。

基础的UNet++模型简洁有效地解决了参数回传的问题,但直接将其应用于建筑物提取任务,精度较低。为了提高它的分类精度,本研究选择将不同的深度学习模型作为骨架(backbone)来改造UNet++基础模型。分别选用了VGG16,Resnet50和InceptionV3,对UNet和UNet++进行改造。

ResNet模型[14]结构可以加速神经网络训练,其主要思想是在网络中增加直连通道,即Highway Network的思想。此前的网络结构是线性输入做一个非线性变换,而Highway Network则允许保留之前网络层的一定比例的输出,允许原始输入信息直接传到后面的层中。残差网络的具体结构如图 3所示。

Download:
图 3 残差结构[14] Fig. 3 Residual structure[14]

由两个子单元组成,它的表达式如下:

$ \mathcal{F} = {W_2}\begin{array}{*{20}{l}} \sigma \end{array}\left( {{W_1}\mathit{\boldsymbol{x}}} \right), $ (2)
$ \mathit{\boldsymbol{y}} = \mathcal{F}\left( {\mathit{\boldsymbol{x}},\left\{ {{W_i}} \right\}} \right) + \mathit{\boldsymbol{x}}. $ (3)

式中:σ代表ReLU层,然后通过短链接和第2个ReLU层得到输出y

Inception网络模块中,除常见的3×3和5×5卷积网络之外,引入额外的1×1卷积层,以此限制输入信道的数量,信道数的减少可以有效地降低计算成本,同时不改变计算的结果。最终经过多个版本的迭代,Inception网络模型发展到了V4版本,本文选取V3版本对UNet++网络进行改造。其中3个子模块结构分别如图 4(a)4(b)4(c)所示。

Download:
图 4 3种Inception结构[13] Fig. 4 Three structures of Inception[13]

本文将3种基础网络的编码器部分按照表 1分割为5个部分,分别将Conv1~5作为跳跃链接层,替换原始UNet++模型编码器中的各个卷积模块,然后在各模块中加入Dropout层和BN层进一步提升收敛速度和鲁棒性。基于InceptionV3的UNet/UNet++模型在模型深度增加的前提下,计算量增加并不明显,可以有效提高模型的运行和计算效率。

表 1 VGG16、ResNet50、InceptionV3模型结构表(编码器) Table 1 Model structure table of VGG16, ResNet50, and InceptionV3(encoder)
1.2 Dice系数与交叉熵混合损失函数

Dice系数是一种集合相似度函数,常用于计算样本的相似度,其表达式如下

$ S = \frac{{2\left| {X \cap Y} \right|}}{{\left| X \right| + \left| Y \right|}}. $ (4)

其中:|XY|为两集之间的交集,|X|和|Y|分别表示XY的元素个数。将Dice系数作为损失函数应用于二分类场景,使得两种类别的相似度最小,因此用Dice系数取相反数就可以得到Dice损失函数。

为了保留交叉熵收敛效能,本文将二元交叉熵(binary cross-entropy)和Dice loss两种损失函数进行叠加组合,按式(4)的损失值分配到每一个层次的输出,以此进行反向传播运算。

$ \mathcal{}(Y,\hat Y) = - \frac{1}{N}\sum {\begin{array}{*{20}{c}} N\\ {b = 1} \end{array}} \left( {\frac{1}{2}.{Y_b} + log{{\hat Y}^b} + \frac{{2.{Y_b}.{{\hat Y}_b}}}{{{Y_b} + {{\hat Y}_b}}}} \right). $ (5)

式中: ŶbYb分别表示第b张图像的预测概率的线性展开和真实结果线性展开,N表示批量大小。

1.3 精度评价体系

在测试模型的性能时,考虑到传统图像分割领域和遥感分类领域精度评价标准差异,使用每个类别的生产者精度(producer accuracy)、用户精度(user accuracy)、临界成功指数(critical success index,CSI)、F1分数以及Kappa系数为评价标准。其中生产者精度、用户精度和Kappa系数是遥感分类中最为常用的精度评价指标,CSI常见于气象学科的分类中,F1分数能综合体现生产精度和用户精度分类效果,是计算机图像领域中最为常用的分类指标。这几个指标的表达式分别表示如下:

$ {\rm{Users = }}\frac{{{T_{\rm{P}}}}}{{{T_{\rm{P}}} + {F_{\rm{P}}}}}, $ (6)
$ {\rm{Producers = }}\frac{{{T_{\rm{P}}}}}{{{T_{\rm{P}}} + {F_{\rm{P}}}}}, $ (7)
$ {\rm{CSI = }}\frac{{{T_{\rm{P}}}}}{{{T_{\rm{P}}} + {F_{\rm{P}}} + {T_{\rm{N}}}}} $ (8)
$ {F_1} = \frac{{2 \times {\rm{Users \times Producers}}}}{{{\rm{Users}} + {\rm{Producers}}}}, $ (9)
$ K = \frac{{{p_{\rm{O}}} - {p_{\rm{e}}}}}{{1 - {p_{\rm{e}}}}}. $ (10)

式中: Users表示用户精度,Producers表示生产者精度;TP表示预测正确实际也正确的像元数量,FP表示预测为正确像元但实际是错误像元的数量,TN表示预测为错误实际也分类错误的像元数量,FN表示预测为错误但实际为正确像元的数量;po是每一类正确分类的样本数量之和除以总样本数,也就是总体分类精度;pe是所有类别分别对应的实际与预测数量的乘积的总和,除以样本总数的平方。

2 实验数据及处理 2.1 数据源介绍

马萨诸塞州建筑物数据集(Mnih Massachusetts building dataset)由马萨诸塞州波士顿地区的151张航拍图像组成,空间分辨率为1 m,每幅图像的大小为1 500像素×1 500像素,面积为2.25 km2。因此,整个数据集大约覆盖340 km2。整个数据集由Mnih创建,他通过栅格化OpenStreetMap项目获得的建筑轮廓线来获取精确的建筑物轮廓。此数据仅保留平均遗漏噪声水平小于或等于5 % 的区域。波士顿地区为OpenStreetMap项目贡献了整个城市的建筑分布数据,所以可以收集到大量高质量的建筑物提取数据。我们将数据随机分为137个图像的训练集,10个图像的测试集和4个图像的验证集。航空影像数据和标签数据如图 5(a)5(b)所示。标签数据中建筑物轮廓以房屋屋顶为标准,并将其在标签数据中标记为1,其余像素都标记为0。为了充分利用GPU显存,同时确保实验进行,本研究采用滑动裁剪将影像裁剪为512像素×512像素大小,每张原始影像被裁剪为25张小影像,每张影像的重叠度为50 %。

Download:
图 5 马萨诸塞州建筑物数据集示例 Fig. 5 An example of Mnih Massachusetts building datasets
2.2 数据预处理与增强

我们在获取到原始的深度学习数据集后,不会马上将数据投入训练,往往还要经过数据的预处理和增强处理。数据预处理和增强主要为了扩充数据集样本数量,一般而言,数据量越大,模型能够更好地学习数据集的特性,提高泛化能力,同时增加一定的噪声数据,保障更好的鲁棒性能。数据预处理首先对基础的数据集进行切割,得到模型适用的输入尺寸大小的新数据集,在新数据集的基础上对数据进行增强。数据增强常用的方法有:翻转、旋转、缩放、裁切、平移、添加噪声等。我们对马萨诸塞州建筑物数据集进行预处理得到3 425个训练样本,然后对训练样本进行增强,得到50 000个训练样本组成的训练集用于模型的训练。

2.3 模型实现与训练

采用Keras+Tensorflow作为学习框架。Tensorflow是Google Brain推出的基于数据流编程的深度学习框架,被广泛应用于学术和工业界,具有很高的可操作性。Keras是一种以Tensorflow为后端的高级神经网络API,采用python开发。

卷积神经网络在训练过程中会不断迭代自身的网络参数,但是为了使模型迭代更快,得到更好的训练效果,常常需要人为设置一些超参数。这里主要设置的参数有批处理的大小(batch size)、损失函数的优化器、迭代轮数(epoch)、初始学习率、初始权重以及Dropout层的比例等。经过多次的实验和经验,同时考虑服务器处理能力,设置batch size大小为8,优化器为自适应学习率Adam函数[30],初始学习率为0.01,权重衰减参数为10-7,epoch大小为100次并辅以早停设置,采用ImageNet数据集上训练好的权重参数作为初始权重。Dropout层比例设置为0.5。本实验采用2块英伟达Tesla P100的Linux服务器进行训练。

3 结果与讨论 3.1 Mnih建筑物数据集提取应用

除了对本文涉及的网络进行精度对比分析之外,还对Mnih[15],Saito等[16]以及刘文涛等[18]提出的方法对同实验数据的实验结果进行对比,这里主要参考了他们的总精度。本文实验了基于VGG16、ResNet50、InceptionV3为骨架的UNet++和UNet网络,同时也对基础的UNet++和UNet网络进行了实验,主要评价指标有生产者精度、用户精度、CSI、F1分数、Kappa系数以及总精度,结果如表 2所示。

表 2 不同模型精度分析表 Table 2 Accuracy analysis table of different models

Mnih和Satio主要采用非全卷积网络,在解码器部分采用全连接层和最后的分类器结构,他们的总精度相较于效果最差的标准的UNet而言分别低了10.88 % 和6.39 %,这说明全卷积网络结构在高分辨率影像建筑物提取应用上相较于普通的卷积网络而言有着非常大的优势。与标准的UNet和UNet++网络对比,UNet++网络各项精度评价指标都要优于UNet网络,这说明在一定程度上,UNet++网络结构在高分辨率建筑物提取任务上要优于UNet网络。同时由表 2可得,两种标准网络提取结果在生产者精度上都表现较差,用户精度表现稍好,但其他精度评价指标上表现较差。再分析本文提出的采用不同骨架改造的UNet/UNet++网络,从表 2图 6可以发现通过改造后的网络分类结果要明显好于标准模型,和同为全卷积网络的刘文涛等[18]和刘浩等[19]提出的网络模型相比总精度也有一定优势。选取5幅提取结果进行分析,其中图 6(1)列以小型建筑物独立别墅分布为主,图 6(2)6(3)列为各种大小建筑混合分布,图 6(4)列以中大型建筑分布为主,图 6(3)6(4)列存在一定的高层建筑,形成了较大的建筑物阴影。

Download:
(a)原始影像(b)标签数据(c)Standard-UNet提取结果(d)Standard-UNet++提取结果(e)VGG16-UNet提取结果(f)VGG16-UNet++提取结果(g)ResNet50-UNet提取结果(h)ResNet50-UNet++提取结果(i)InceptionV3-UNet提取结果(j)InceptionV3-UNet++提取结果绿色表示正确分类的建筑物;红色表示误检的建筑物;蓝色表示漏检的建筑物 图 6 不同模型提取结果可视化对比 Fig. 6 Visual comparison of classification results of different models

首先比较以VGG16为骨架的两种网络,从精度评价参数上看,VGG16-UNet++网络的生产者精度要好于VGG16-UNet,而用户精度要略差,但是其他评价指标都要更优,最终总精度也略好。对图 6提取结果进行分析可以发现,对于中大型建筑物,如图 6.ef(3)和6.ef(4)列中,VGG16-UNet的正确率要高于VGG16-UNet++,VGG16-UNet++存在一定漏检和误检率,而对于独栋建筑小型建筑,从图 6.ef(1)和6.ef(2)列中可以发现VGG16-UNet++的精度要更高,同时对于高层建筑造成的阴影,如图 6.ef(3)和6.ef(4)列中,VGG16-UNet++的误检率也要更低。VGG16骨架模型相较于标准模型改动不大,主要区别体现在BN层和DropOut层的引入,由此可以发现,BN层和DropOut层可以明显提高模型的分类效果。

两种以ResNet50为骨架的模型,从评价指标上来看,ResNet50-UNet++模型的各项指数都要明显优于ResNet50-UNet模型,横向与基于VGG16的模型进行比较,可以发现基于ResNet50的两种模型整体也更加优秀。说明一定程度上提升网络模型的深度可以明显提升模型的性能。但是不可忽视的是,随着模型深度的提升,计算量也随之增大。具体分析提取结果,从图 6.gh(4)列中可以发现,在大型建筑物检测上,ResNet50-UNet++模型的误检率和漏检率都要优于ResNet50-UNet模型,对于小型建筑物分类效果,两种模型相差不大,从图 6.gh(3)列发现,对于多阴影的高层建筑物,ResNet50-UNet++模型受到的干扰较小,但对于边缘的大型建筑仍存在一定的漏检现象。

两种基于InceptionV3的网络,通过与VGG16和ResNet50两种模型进行对比分析可以发现,通过增加网络模型的广度,也可以提升模型的分类效率。ResNet50-UNet和InceptionV3-UNet两者性能相近,InceptionV3-UNet模型的生产者精度、CSI、F1分数都略差于ResNet-UNet模型,用户精度和总精度则要略有优势。而Inception-UNet++模型的各项参数则要优于ResNet-UNet++模型。具体分析分类结果,对于大型建筑而言,从图 6.ij(3)列所示,InceptionV3-UNet++虽然还存在一定的漏检率,但误检率已明显好于其他模型,对于阴影与建筑物本体的区分度也表现更优秀。由图 6.ij(1)列,小型建筑上Inception-UNet++也有一定的优势。

通过对各模型提取结果进行分析,从图 6可以看出,对标准的UNet++模型的骨架进行改造,使得各个模型相较于标准网络和非全卷积网络可以取得更好的分类效果。随着影像分辨率的提高,建筑物在影像上表现的形式越来越具体,越来越复杂,要使得模型可以充分学习建筑物在高分辨率影像中的各种特性,需要的网络模型的复杂程度也越高。通过引入BN层和DropOut层,一定程度增加模型的深度和广度,都可以更好地让模型学习到更具表达能力的深层特征,以此提高模型的学习能力。本文验证了UNet++为代表的图像分割网络模型,在经过不同骨架的改造后,可以适用于复杂的拥有大量现存训练标注样本集的建筑物提取任务。

3.2 WHU建筑物数据集迁移学习

为了进一步验证模型在其他数据集的适用性,验证其鲁棒性能,本文选用InceptionV3-UNet++ 在Mnih数据集上训练得到的模型,在WHU(卫星影像Ⅰ)数据集[31]上进行迁移学习,WHU数据集包含了从0.3~2.5空间分辨率的ZY-3、IKONOS和WorldView系列等多种卫星影像数据制成的建筑物轮廓数据集,影像涵盖全球十多个不同城市,非常适合测试建筑物提取算法的鲁棒性。该模型对WHU数据集的验证集提取结果如表 3所示,提取结果示例如图 7所示。

表 3 WHU验证集提取结果精度分析表 Table 3 Accuracy analysis table of extraction results for WHU verification datasets

Download:
图 7 WHU数据集提取结果可视化示例 Fig. 7 Visual example of extraction results in WHU datasets

经过简单的迁移学习,InceptionV3-UNet++模型取得了较好的建筑物提取效果,总精度达到94.34 %,Kappa系数达到0.843 9,这证明该模型具有良好的鲁棒性能。具体分析提取结果示例可以发现,对于小型建筑物提取效果较好,建筑物边界较为清晰,但由于底层建筑物可能存在部分树木遮挡,造成了一定的漏检,同时误检部分主要为靠近建筑物的规则裸露空地。

4 总结

本文针对高空间分辨率遥感影像的建筑物提取问题,以3种不同传统卷积神经网络VGG16、ResNet50和InceptionV3为骨架对标准UNet++进行改造,得到多种强化网络,以马萨诸塞州建筑物数据集进行训练,然后进行对比分析,得出以下结论:

1) 比较VGG16-UNet++模型与标准UNet/UNet++模型不同的网络特性和实验结果发现,通过增加BN层和DropOut层等一系列参数层和操作可以有效提升建筑物提取的精度,并一定程度提升模型的收敛效率,总提取精度提升6.17 % 和5.07 %。

2) 比较ResNet50-UNet++模型与标准UNet/UNet++模型不同的网络特性和实验结果发现,在计算机能力允许的情况下,适当增加模型深度,虽然模型复杂度提高,计算量提升,但可以有效地提升模型提取建筑物的效果。

3) 比较InceptionV3-UNet++模型与标准UNet/UNet++模型不同的网络特性和实验结果发现,在模型深度有限的情况下,提升卷积模块的广度也可以有效提升模型建筑物提取的效果,Inception模块虽然使模型复杂度提升,但计算量增加不大,有效提升了模型的运行效率。

4) 通过对标准模型进行改造,使得模型对建筑物的提取精度提升明显,特别是基于InceptionV3骨架的UNet++网络,在马萨诸塞州建筑物数据集的实验结果在生产者精度、用户精度、CSI、F1分数、Kappa系数和总精度上分别达到85.14 %、90.50 %、0.781 6、0.877 4、0.850 4和95.57 %,相较于传统的非全卷积网络模型和全卷积网络模型,各项参数均有明显优势。

5) 通过对InceptionV3-UNet++模型进行迁移学习,在WHU数据集上取得较好的分类精度,证明该模型具有良好的鲁棒性能。

本文基于不同骨架的UNet++在马萨诸塞州建筑物数据集取得了很好的分类结果,但仍然有一定的改进空间:

1) 通过提升模型的卷积深度提升了建筑物提取效果,但没有探究模型深度提升与建筑物提取效果的具体关系,随着模型深度的增加,虽然可以使模型复杂度提升,但是也使得计算量增加,而对于建筑物提取而言复杂度和提取效果是否存在一定关系,后续可以探究以ResNet34、ResNet50、ResNet101以及ResNet152为骨架不同深度的模型对建筑物提取的精度影响。

2) 使用VGG16、ReNet50和InceptionV3为骨架改造UNet++,其中的InceptionV3-UNet++骨架模型为建筑物提取取得了很好的效果,随着卷积神经网络在图像领域的发展,很多新的模型不断被提出,可以继续探讨不同基础卷积网络为骨架对建筑物提取效果的影响。

3) 在模型输出分类结果后,没有进一步对提取结果进行后处理,后续可以探讨通过适当后处理方法优化提升提取结果。

4) 仅采用马萨诸塞州建筑物公开数据集进行实验,并用WHU数据集进行了迁移学习验证,下一步可以探讨在更小样本情况下在其他数据集上的适用性,提升模型的应用能力。

参考文献
[1]
张庆云, 赵冬. 高空间分辨率遥感影像建筑物提取方法综述[J]. 测绘与空间地理信息, 2015, 38(4): 78-82. Doi:10.3969/j.issn.1672-5867.2015.04.026
[2]
钱瑶, 唐立娜, 赵景柱. 基于遥感的建筑物高度快速提取研究综述[J]. 生态学报, 2015, 35(12): 3886-3895. Doi:10.5846/stxb201309252361
[3]
Myint S W, Gober P, Brazel A, et al. Per-pixel vs. object-based classification of urban land cover extraction using high spatial resolution imagery[J]. Remote Sensing of Environment, 2011, 115(5): 1145-1161. Doi:10.1016/j.rse.2010.12.017
[4]
李莉. 面向对象的高分辨率遥感影像信息提取研究[D]. 成都: 成都理工大学, 2012.
[5]
Cleve C, Kelly M, Kearns F R, et al. Classification of the wildland-urban interface: a comparison of pixel-and object-based classifications using high-resolution aerial photography[J]. Computers, Environment and Urban Systems, 2008, 32(4): 317-326. Doi:10.1016/j.compenvurbsys.2007.10.001
[6]
Baatz M, Schäpe A. Multiresolution segmentation: an optimization approach for high quality multi-Scale image segmentation[C]//Strobl J, Blaschke T, Griesbner G. Angewandte Geographische Informations-Verarbeitung, XII, Wichmann-Verlag, Heidelberg, Germany, 2000: 12-23.
[7]
王丹. 一种高分辨率遥感影像建筑物边缘提取方法[J]. 环境保护与循环经济, 2009, 29(10): 26-28. Doi:10.3969/j.issn.1674-1021.2009.10.010
[8]
Jung C R, Schramm R. Rectangle detection based on a windowed hough transform[C]//Proceedings of the 17th Brazilian Symposium on Computer Graphics and Image Processing. October 20, 2004, Curitiba, Brazil. IEEE, 2004: 113-120. DOI: 10.1109/SIBGRA.2004.1352951.
[9]
魏德强. 高分辨率遥感影像建筑物提取技术研究[D]. 郑州: 解放军信息工程大学, 2013.
[10]
高薇. 基于不变矩算法的高分辨率遥感影像建筑物特征提取[D]. 成都: 电子科技大学, 2013.
[11]
Dempster A P, Laird N M, Rubin D B. Maximum likelihood from incomplete data via the EM algorithm[J]. Journal of the Royal Statistical Society: Series B (Methodological), 1977, 39(1): 1-22. Doi:10.1111/j.2517-6161.1977.tb01600.x
[12]
Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. ArXiv Preprint, 2014, ArXiv: 1409-1556.
[13]
Szegedy C, Liu W, Jia Y Q, et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 7-12, 2015, Boston, MA, USA. IEEE, 2015: 1-9. DOI: 10.1109/CVPR.2015.7298594.
[14]
He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 770-778. DOI: 10.1109/CVPR.2016.90.
[15]
Mnih. Machine learning for aerial image labeling [D]. Toronto: University of Toronto (Canada), 2013.
[16]
Saito S, Yamashita T, Aoki Y. Multiple object extraction from aerial imagery with convolutional neural networks[J]. Journal of Imaging Science and Technology, 2016, 60(1): 10402. Doi:10.2352/j.imagingsci.technol.2016.60.1.010402
[17]
Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 7-12, 2015, Boston, MA, USA. IEEE, 2015: 3431-3440. DOI: 10.1109/CVPR.2015.7298965.
[18]
刘文涛, 李世华, 覃驭楚. 基于全卷积神经网络的建筑物屋顶自动提取[J]. 地球信息科学学报, 2018, 20(11): 1562-1570. Doi:10.12082/dqxxkx.2018.180159
[19]
刘浩, 骆剑承, 黄波, 等. 基于特征压缩激活Unet网络的建筑物提取[J]. 地球信息科学学报, 2019, 21(11): 1779-1789. Doi:10.12082/dqxxkx.2019.190285
[20]
Szegedy C, Ioffe S, Vanhoucke V, et al. Inception-v4, inception-ResNet and the impact of residual connections on learning[J]. ArXiv Preprint, 2016, ArXiv: 1602.07261.
[21]
Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016. Las Vegas, NV, USA. IEEE, 2016: 2818-2826. DOI: 10.1109/CVPR.2016.308.
[22]
Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift[J]. ArXiv Preprint, 2015, ArXiv: 1502.03167.
[23]
Srivastava N, Hinton G E, Krizhevsky A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research, 2014, 15(1): 1929-1958.
[24]
Milletari F, Navab N, Ahmadi S A. V-net: fully convolutional neural networks for volumetric medical image segmentation[C]//2016 Fourth International Conference on 3D Vision (3DV). October 25-28, 2016, Stanford, CA, USA. IEEE, 2016: 565-571. DOI: 10.1109/3DV.2016.79.
[25]
Ronneberger O, Fischer P, Brox T. U-net: convolutional networks for biomedical image segmentation[J]. ArXiv Preprint, 2015, ArXiv: 1505.04597.
[26]
Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507. Doi:10.1126/science.1127647
[27]
Zhou Z W, Siddiquee M M R, Tajbakhsh N, et al. UNet++: a nested U-Net architecture for medical image segmentation[M]// Stoyanov D, Taylor Z, Carneiro G, et al. Deep learning in medical image analysis and multimodal learning for clinical decision support. Spain: Springer, 2018: 3-11.
[28]
Huang G, Liu Z, van der Maaten L, et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 2261-2269. DOI: 10.1109/XVPR.2017.243.
[29]
Lee C Y, Xie S N, Gallagher P W, et al. Deeply-supervised nets[J]. ArXiv Preprint, 2014, ArXiv: 1409.5185.
[30]
Kingma D P, Ba J. Adam: a method for stochastic optimization[J]. ArXiv Preprint, 2015, ArXiv: 1412.6980.
[31]
Ji S P, Wei S Q, Lu M. Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery data set[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(1): 574-586. Doi:10.1109/TGRS.2018.2858817