2. 武汉大学测绘遥感信息工程国家重点实验室, 湖北 武汉 430079
2. State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing, Wuhan University, Wuhan 430079, China
随着IKONOS、QuickBird等高分遥感卫星的发射,高分辨率遥感影像比中、低分辨率的影像所包含的信息更加丰富。由于遥感影像场景中地物目标具有多样可变性、分布复杂性等特点,如何有效地对高分辨率遥感影像场景进行识别和语义提取成为了极具挑战的课题,已引起遥感学术界的广泛关注[1]。
为了解决遥感影像场景自动识别的问题,学者们先后提出了多种分类办法。文献[2]利用贝叶斯网络集成颜色特征、小波纹理特征和先验语义特征对室内、外场景影像进行分类。文献[3]利用金字塔表达方法提取底层特征,并利用SVM(support vector machine)和KNN(k-nearest neighbor)完成场分类。文献[4]提出一种基于词袋的影像表达方法SPMK(spatial pyramid matching kernel),在UC Merced(UCM)数据集上取得准确率为74%的识别结果。文献[5]使用视觉词典,结合BoVW(bag of visual words),提出了一种空间共线核方法SPCK++,相比BoVW和SPMK精度更高,取得77.38%的准确率。文献[6]将概率主题模型LDA(latent dirichlet allocation)用于场景分类,提出了P-LDA和F-LDA,提高了LDA的分类精度。这些传统分类方法的关键在于分类器和人工特征提取。然而,在遥感场景影像中,复杂背景和尺度变化使得人工特征提取本身就是一个难点问题。
近年来,卷积神经网络CNN(convolutional neural network)作为深度学习的一个模型,在大规模图像分类和识别中已经取得了巨大成功[7]。CNN通过卷积层在大规模训练集中提取图像的中层特征,并通过反向传播算法[8]在全连接层中自动学习图像的高层特征表达,最后采用Softmax函数对目标分类。因此相比传统机器学习方法,CNN具有权值共享,模型参数少,自动高层特征表达和易于训练的优点,已经开始应用于高分辨率遥感影像识别领域[9-11]。文献[9]利用显著性采样提取影像显著信息块,再利用卷积神经网络提取高层特征,最后使用SVM进行场景分类。文献[11],利用CaffeNet,在UCM遥感数据集上获得了85.71%识别准确率。文献[11]等讨论了在数据增强的基础上,CNN提取特征后直接分类的结果和在获得特征后做简单融合后的结果,识别准确率分别为90.13%和93.05%。
可见,遥感影像场景分类发展迅速,由人工提取图像底、中层特征,再到利用深度学习自动获取高层特征,已经取得了不错的分类结果。但是还存在一些难点和问题。一方面,人工提取特征只能解释一定信息量的数据,且受到环境、光照、遮挡等影响,对于信息量日益丰富的遥感影像数据的稳健性不高;另一方面,基于CNN的遥感影像场景分类研究中,良好的分类精度往往是依赖于大量的训练数据,而在小数据集上容易出现过拟合问题[12]。
为了解决CNN在有限数据集上的训练问题,增强高分遥感影像小数据集上的高层特征表达,本文提出基于JMCNN的高分遥感场景分类方法,如图 1所示。每一个输入的遥感影像被提取3个尺度的随机子区域,并传入多通道卷积特征提取器,其提取得到的特征通过多个特征融合器进行融合,实现高层特征的联合增强表达,最后利用Softmax分类器对联合增强的特征进行分类。不同于现有CNN模型,本文提出的端对端的多尺度联合卷积神经网络模型,可以用更少的训练集实现高层特征的融合增强表达;其次3个尺度和通道的多输入模型,有效地解决了不同分辨率下的复杂图像分类,增强了模型的抗差性;第三,通过建立多个特征融合器对多通道多尺度特征融合,可实现高层特征的联合增强表达,提高网络效率。
1 JMCNN网络结构
不同于以往分别训练多个CNN[13]级联以增强特征表达的方式,JMCNN建立了一个3个尺度、3个通道的端对端训练模型,包括多通道特征提取器、多尺度特征联合、联合损失函数3个部分。JMCNN的网络结构如图 2所示。首先,将图像大小为N×N的遥感影像进行3个尺度随机子区域提取,获得图像子区域大小分别为
1.1 多通道卷积特征提取
JMCNN的多通道特征提取器是由3个单通道子卷积网络构成。每个单通道子卷积网络包括3个中间层,每个中间层分别由卷积层、ReLu[14]激活函数和极大池化层构成,如图 3所示。
首先,对输入大小为N×N的遥感影像,随机提取3个不同尺度(大小分别为
单通道子卷积网络的特征提取过程如下:
设输入影像为X∈Rh×w×c,由宽卷积计算公式
其中, h、w、c分别为影像的高、宽、颜色通道总数,F为5×5的卷积核,i为颜色通道号,b为偏置项,⊗代表宽卷积运算。由于是宽卷积运算,输出的特征映射Y∈Rh×w×c与X维度相同。然后,通过ReLu函数激活后和极大池化层计算特征映射Mk∈Rb×w×c,其输出特征维度与Y相同,即为所提取的单通道卷积特征矩阵Mk, k表示不同的特征通道。
在JMCNN中,3个不同尺度的子影像分别通过3个单通道卷积子网络,则最终获得3个不同尺度的卷积特征矩阵M{M1, M2, M3}。
1.2 多尺度特征联合为了增强特征的表达能力,多尺度特征联合将对多通道卷积特征进行多尺度融合增强,获得高层特征增强表达。与Inception模块[15]相比,多尺度特征联合增强包括了两个级联的特征融合过程,从而减少了全连接层总连接数,提升了模型效率。第一个是将多通道特征提取器中输入图像大小为
算法:多尺度特征联合。
输入:多通道特征矩阵Ft1、Ft2、Ft3,特征融合器f。
输出:高层增强联合特征表达FIN。
(1) 融合Ft1和Ft2,得到TMP=f(Ft1,Ft2)。
(2) 融合TEM和Ft3,得到FIN=f(TEM,Ft2)。
(3) Return FIN。
图 4为单个特征融合器f的结构图。特征融合器f的算法过程。假设任一个融合器输入的两个特征矩阵为M1、M2∈Rh×w×c,首先将Mk(k=1, 2)以行、列、颜色通道的顺序展平为特征向量Ki∈R1×(h*w*c),其中*代表数值乘法,×代表笛卡儿积。然后将特征向量分别进入全连接层计算并使用ReLu[13]激活
其中Ti为1024维的特征向量;W∈R(h*w*c)×1024;b为偏置项。T1和T2通过“concat”变换成一个新的特征向量V3,再将此向量通过一个全连接层计算得出最终的高层增强特征表达。其中,“concat”定义为两个特征向量的线性拼接,得到特征向量V3空间维度为V3∈R1×2048。最后,式(3)再对V3进行激活,得到融合的高层特征向量P∈R1×512。
特征融合器f的算法过程如下:
算法:特征融合算法。
输入:特征矩阵M1、M2,权重矩阵W1、W2、W3,偏置向量b1、b2、b3。
输出:融合特征向量P。
(1) 展平两个特征矩阵M1、M2,得到Ki=reshape(Mk), (k=1, 2)。
(2) 全连接层得到Vi=KiWi+bi。
(3) 激活得到Ti=ReLu(Vi)。
(4) 融合特征向量T1和T2,得到V3=concat(T1,T2)。
(5) 计算全连接层计并ReLu激活,得到最终的特征向量P=ReLu(V3W3+b3)。
(6) ReturnP。
此外,为了防止过拟合问题,JMCNN采用一种概率线性融合方式对两个特征进行融合。即在训练过程中每个全连接层后连接了一个dropout[16]层,即每次随机保留一部分神经元参与训练。
1.3 Softmax分类器及损失函数JMCNN模型采用Softmax分类器,因此本小节主要阐述模型的损失函数。JMCNN的损失函数为交叉熵损失与正则化项之和,即在经验风险上加上表示模型复杂度的结构风险。
设Softmax函数输出的向量为Y∈R1×n, Y=(y1, y2, …, yn),式中n为样本类别数;yi表示向量中第i个元素的实数值。
损失函数可表示为
其中,式(4)中前一项是交叉熵损失函数,后一项是权值的L2正则项;λ为正则项系数,其由各权值的衰减系数乘积决定。式(4)引入了正则项的损失函数,其作为损失函数的一个惩罚项,平衡经验风险与模型复杂度,能有效防止过拟合现象。
2 基于JMCNN的高分遥感影像场景分类本节主要描述了基于JMCNN的高分遥感影像场景分类过程。
2.1 遥感影像数据预处理为了能更好地表达遥感影像中的场景信息,在开始训练JMCNN之前,需要对高分遥感影像进行数据预处理,以增加样本的多样性。首先,对于一张大小为N×N的影像,随机提取大小为
JMCNN由3个通道的卷积特征提取器组成,每个特征提取器由3个卷积层、ReLu激活函数和池化层构成,每个卷积层的卷积图个数为64。卷积层的卷积核的大小均为5×5,步长为1,权重衰弱系数为0,即卷积层的权值的L2范数不加入正则项。池化层的卷积核的大小均为3×3,步长为2。其中卷积层、池化层中的卷积运算均采用宽卷积运算。
2.2.2 多尺度特征联合多尺度特征联合过程由两个特征融合器构成。特征融合器中的全连接层的权值衰减系数均设置为0.004,即全连接层的权值的L2范数均加入正则项。图 5描述了多尺度特征联合中的特征向量融合过程。
如图 5所示,第一个特征融合器的输入参数是两个不同尺度影像中根据特征矩阵的稀疏程度提取的特征向量,维度为1024。“concat”后维度为2048,再通过全连接层线性融合后得到特征向量,其输出维度为512。
第二个特征融合器的输入参数分别为卷积特征通道所提取的特征向量(维度为1024)和由第一个特征融合器融合的512维特征向量,通过“concat”, 输出特征向量维度为1536。接着进入全连接层线性融合后得到的特征向量的输出维度为512。
每个特征融合器后面加入一个dropout层,从而在训练过程中可降低全连接层的复杂度,防止融合得到的特征产生过拟合现象。dropout层会使得全连接层中的每个神经元以一定的概率“失活”,使得模型复杂度降低,计算量减少,模型收敛更快和泛化增强。参考GoogleNet[15],将第一个特征融合器的保留概率设置为0.6,第二个则设置为0.7。
2.2.3 基于Softmax的高层联合特征分类Softmax分类器用于对图 7联合提取的512维的高层增强特征向量进行分类,获得最终的影像场景类别。
假设,输出一个维数与场景类别数n相同的一个向量Y={Yi},其中Yi(i=1, 2, …, n)为该场景影像属于类别i的概率。Softmax采用Yi最大概率判别该场别影像的类别i,如图 6所示。
3 基于JMCNN的场景分类试验和分析
为了有效地评估JMCNN模型在高分遥感影像场景分类,JMCNN在UCM和SIRI[17-19]两个高分遥感影像数据集上分别进行了试验和分析,并与最新方法进行对比。试验均采用5-折交叉验证,试验结果表明JMCNN可以在小数据集上实现较好的分类结果。
3.1 试验设置试验环境:试验均在载有两块NVIDA GeForce GTX1080的显卡、Inter ® coreTM i7-6700K CPU@4.00 GHz、RAM:32.0 GB的工作站上进行。本文的JMCNN与所使用的CNN模型均利用试验框架为TensorFlow[20]实现。
数据集:试验所采用的数据集为UCM和SIRI高分遥感数据集。UCM数据集所包含的影像尺寸为256×256,颜色通道为RGB,空间分辨率为0.3 m。该数据集影像总计为2100张,含21个场景类别,每类100张。类别包括(a)农田(b)机场(c)棒球场(d)沙滩(e)建筑(f)丛林(g)密集住宅区(h)森林(i)公路(j)高尔夫球场(k)海港(l)十字路口(m)中等住宅区(n)房车公园(o)天桥(p)停车场(q)河流(r)飞机跑道(s)稀疏住宅区(t)储油罐(u)网球场,如图 7所示。
SIRI数据集为Google Earth上的影像数据,主要覆盖我国的城市及周边区域,由文献[20]的作者整理而成。影像尺寸为200×200,颜色通道为RGB,分辨率为2 m。数据集总计2400张影像,有12类,每类200张。类别分别为(a)农田(b)商业区(c)港口(d)裸地(e)工业区(f)草地(g)交叉路口(h)公园(i)池塘(j)居民区(k)河流(l)水面,如图 8所示。
试验验证方案:在试验中,均采用5折交叉验证方案,将数据集随机划分为5等份,每次利用其中4份作为样本集,余下1份即为测试集,轮流5次,取分类精度的平均值。
3.2 UCM数据集场景识别试验表 1描述了使用不同网络结构和特征的场景分类时间和准确率的比较。表 1第一行中“网络”、“Size”、“F”、“Acc”、“Kappa”,分别表示“网络结构”、“增强后数据集大小”、“单次前向计算耗时”、“识别准确率”、“Kappa系数”。
网络 | size | F/(ms) | Acc/(%) | Kappa |
CNN(6conv+2fc) | 2100 | 216 | 64.27 | 0.612 3 |
CNN(6conv+2fc) | 2100×36 | 218 | 85.76 | 0.851 2 |
CNN(5conv+2fc) | 2100×36 | 211 | 83.22 | 0.802 2 |
CNN(6conv+2fc) | 2100×240 | 223 | 90.33 | 0.899 3 |
JMCNN | 2100 | 153 | 89.30 | 0.874 2 |
JMCNN | 2100×36 | 158 | 93.00 | 0.926 2 |
JMCNN | 2100×240 | 145 | 98.30 | 0.967 7 |
试验中,CNN(6conv+2fc)代表卷积神经网络结构为6个卷积层(卷积核5×5,步长为1,卷积核数量分别为60、50、64、128、256、512)且每个卷积层后接一个池化层(卷积核3×3,步长为2)和2个全连接层(输出维度分别为1024、2048)和Softmax分类器。每个卷积层后均接极大池化层和ReLu激活函数,第一个全连接层的激活函数为ReLu。CNN(5conv+2fc)的网络结构为5个卷积层(卷积核参数设置不变,卷积核数量分别为60、50、64、256、512)。
表 1结果显示,数据集大小同为2100张影像时,JMCNN比CNN(6conv+2fc)网络精度高出25.03%,该结果说明在小数据集上利用融合后的多尺度特征的分类精度远远高于单一尺度的特征。同时,JMCNN所用的卷积核数量远小于CNN(6conv+2fc)和CNN(5conv+2fc),时间效率提高了30%,一次前向计算时间减少到145 ms。
同时,表 1还对比了数据适当增广36倍和240倍后的分类效率和准确率。试验中所用的数据增广方法为在原影像上随机提取出9张影像,再令这9张影像顺时针旋转0°、90°、180°、270°,从而获得了36倍增广数据集。240倍增广数据是通过先保留图像的60%、62%、64%、66%、68%、70%得到6个子影像,再在这6个子影像上随机提取出10张影像,然后按上述方法旋转4个角度,从而获得6×10×4=240倍的增广数据集。从试验结果可见,数据集大小为2100×36时,JMCNN相比CNN(5conv+2fc)要高出9.78%,比CNN(6conv+2fc)网络要高出3.54%。而在相同网络结构之间,通过增强训练数据,JMCNN精度最大提升了9%,CNN分类精度最大提升了25.06%。数据表明,相对于传统的CNN网络,JMCNN对大数据训练的依赖性更小,在小样本训练的情况下可以获得较强的高层特征。此外,Kappa系数的结果表明,JMCNN具有更好的分类一致性,其泛化能力更强。
图 9为JMCNN在UCM训练数据无增广时的分类精度混淆矩阵。可见,JMCNN对大部分场景的分类准确率高于90%,对于极个别(13)中等住宅区(20)储油罐分类准确率低于70%,相比于传统CNN(6conv+2fc)的分类结果,JMCNN在(b)机场(c)棒球场(p)停车场(q)河流等场景类别的识别准确率提升显著,最高提升了28.72%,总体提升了25.03%,可见它对于尺度变化较大的场景类别识别更加准确。
为了进一步说明JMCNN在不同数据维度下的特征表达能力,图 10描述了JMCNN和CNN在不同维度的训练样本数量下的分类准确率对比结果。图 10表明,随着数据量增加,两种模型分类准确率均有提升,精度的变化率随数据量的增大而减小,并逐渐收敛。CNN模型随着数据量的增加,准确率显著提升,表明其特征质量与训练样本数据量相关程度较大,模型在数据量较小时特征表达不充分。JMCNN的识别准确率随数据量的增加变化较为平缓,通过多通道多尺度高层特征的联合增强,能在小样本数据集上训练充分,获得较高的准确率。
表 2显示了JMCNN与其他方法的对比结果。JMCNN和CNN的样本大小均为2100*0.8张,输入数据为图像本身,均为高效的端对端网络模型。JMCNN的识别率高于CNN25.03%。SVM+LDA[21]和SAE[22]均将数据增广了20倍,其识别率结果比JMCNN分别低了9.03%和6.58%。MeanStd-SIFT+LDA-H[17]通过多种人工设计特征提取融合和聚类的方法,识别率提高到84.98%,仍低于JMCNN约5%。PSR[20]结合BOW特征和金字塔空间关系模型获得了第二高的识别率89.0%,然而其模型训练复杂度高,模型难以泛化使用。RF(Random forest, RF)[23]采用随机森林对SIFT特征进行分类,在相同训练集下的识别率为69.5%。对比结果表明,JMCNN通过端对端训练模式,在不需要任何人工设计特征表达以及数据增广的情况下,识别率均高于其他方法。
3.3 2SIRI数据集场景分类试验
为了更好地验证本文提出模型的抗差性,JMCNN在SIRI数据集(总计2400张,200*200的影像数据)上进行了试验分析。SIRI数据集共有12类,每类200张。
表 3描述了本文提出的JMCNN与CNN(6conv+2fc)、6conv+2fc+SVM、SVM-LDA[21]、SPMK[4]、MeanStd-SIFI+LDA-H[16]方法的对比结果。JMCNN在无数据增广的SIRI数据集上获得了88.3%的分类精度,均高于CNN和传统机器学习方法。CNN(6conv+2fc)和6conv+2fc+SVM均采用6个卷积层、2个全连接层提取高层特征,然后分别用Softmax与SVM[25]分类器进行分类,其结果均低于JMCNN的识别率约20%。同时,相比于LDA-M[21]、SPM-SIFT[4]和MeanStd-SIFI+LDA-H[15]方法的复杂特征设计和提取,JMCNN模型不需要任何人工特征设计,采用端对端训练来统一优化参数,训练难度大大降低,特征表达能力更强,且分类准确率更高。Kappa系数表示,JMCNN与CNN及上述传统机器学习方法相比,具有更好的分类一致性。
图 11为JMCNN在SIRI数据集上分类的混淆矩阵。结果显示,JMCNN对(a)农田(b)商业区(e)工业区(j)居民区(k)水面等场景类别的识别准确率高于95%,对于极个别(f)草地的识别率低于70%,其余大部分在85%左右。可见,该模型对于特征复杂的细粒度区域分类结果较好,而对于背景特征单一的区域分类结果需要进一步提升。
3.4 3USGS大幅影像场景标注试验
试验所用的大幅影像为USGS数据库中美国俄亥俄州蒙哥马利地区的影像,尺寸为10000×9000,空间分辨率为0.6 m,如图 12(a)。在场景标注试验中,样本采样自上述大幅影像,每类样本包含50张图像大小为150×150的子影像,人工标注为4类,分别为住宅(图 13(a))、耕地(图 13(b))、森林(图 13(a))、停车场(图 13(d))。为了评估模型精度,样本以80%、20%的比例分别划分为训练集和测试集。
在该试验中,使用在UCM数据集上预训练的JMCNN模型并将其在该场景影像训练样本上微调。利用微调后的模型对整幅影像进行预测,如图 12(b),图 12(d)为某个预测类别为forest的区域。
通过观察局部细节(图 12(c)),JMCNN在空间分布感知上具有一定优势,能较好地将房屋分布结构识别出。USGS的场景分类准确率为98.5%,图 14为场景分类混淆矩阵。可见,JMCNN在USGS大幅影像上分类同样具有优势。
4 结语
本文在2400张UCM和2100张SIRI的小数据集上进行试验,分别获得了89.3%和88.3%的识别准确率,均高于其他分类器的识别结果。然而,在多类别场景分类中,对于个别模糊场景的类别分类效果欠佳。未来,工作将从以下3个方面进行改进:①优化网络联合部分,使得联合特征更具抗差性,以提高JMCNN在模糊类别上的分类精度。②考虑调整多尺度特征提取器网络结构,使提取出的多尺度特征更为有效。③引入1×1的卷积层用来减少参数量,进一步提高模型效率。同时还将探索基于JMCNN在不同视角下的遥感影像地物检测。
[1] | CHERIYADAT A M. Unsupervised Feature Learning for Aerial Scene Classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(1): 439–451. DOI:10.1109/TGRS.2013.2241444 |
[2] | SERRANO N, SAVAKIS A E, LUO J B. Improved Scene Classification Using Efficient Low-Level Features and Semantic Cues[J]. Pattern Recognition, 2004, 37(9): 1773–1784. DOI:10.1016/j.patcog.2004.03.003 |
[3] |
殷慧, 曹永锋, 孙洪.
基于多维金字塔表达和AdaBoost的高分辨率SAR图像城区场景分类算法[J]. 自动化学报, 2010, 36(8): 1099–1106.
YIN Hui, CAO Yongfeng, SUN Hong. Urban Scene Classification Based on Multi-dimensional Pyramid Representation and AdaBoost Using High Resolution SAR Images[J]. Acta Automatica Sinica, 2010, 36(8): 1099–1106. |
[4] | LAZEBNIK S, SCHMID C, PONCE J. Beyond Bags of Features: Spatial Pyramid Matching for Recognizing Natural Scene Categories[C]//Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York, NY: IEEE, 2006: 2169-2178. |
[5] | YANG Yi, NEWSAM S. Spatial Pyramid Co-occurrence for Image Classification[C]//IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 1465-1472. |
[6] | ZHAO Bei, ZHONG Yanfei, ZHANG Liangpei. Scene Classification via Latent Dirichlet Allocation Using a Hybrid Generative/Discriminative Strategy for High Spatial Resolution Remote Sensing Imagery[J]. Remote Sensing Letters, 2013, 4(12): 1204–1213. DOI:10.1080/2150704X.2013.858843 |
[7] | KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada: ACM, 2012: 1097-1105. |
[8] | HECHT-NIELSEN R. Theory of the Backpropagation Neural Network[C]//International Joint Conference on Neural Networks. Washington, DC: IEEE, 1989(1): 593-605. |
[9] |
何小飞, 邹峥嵘, 陶超, 等.
联合显著性和多层卷积神经网络的高分影像场景分类[J]. 测绘学报, 2016, 45(9): 1073–1080.
HE Xiaofei, ZOU Zhengrong, TAO Chao, et al. Combined Saliency with Multi-Convolutional Neural Network for High Resolution Remote Sensing Scene Classification[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(9): 1073–1080. DOI:10.11947/j.AGCS.2016.20150612 |
[10] | CASTELLUCCIO M, POGGI G, SANSONE C, et al. Land Use Classification in Remote Sensing Images by Convolutional Neural Networks[J]. Acta Ecologica Sinica, 2015, 28(2): 627–635. |
[11] | PENATTI O A B, NOGUEIRA K, SANTOS J A D. Do Deep Features Generalize from Everyday Objects to Remote Sensing and Aerial Scenes Domains?[C]//IEEE Conference on Computer Vision and Pattern Recognition Workshops. Boston, MA: IEEE, 2015: 44-51. |
[12] |
李学龙, 史建华, 董永生, 等.
场景图像分类技术综述[J]. 中国科学(信息科学), 2015, 45(7): 827–848.
LI Xuelong, SHI Jianhua, DONG Yongsheng, et al. A Survey on Scene Image Classification[J]. Scientia Sinica (Informationis), 2015, 45(7): 827–848. |
[13] | LI Haoxiang, LIN Zhe, SHEN Xiaohui, et al. A Convolutional Neural Network Cascade for Face Detection[C]//IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 5325-5334. |
[14] | GLOROT X, BORDES A, BENGIO Y. Deep Sparse Rectifier Neural Networks[C]//Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics. Fort Lauderdale, Florida: HAL, 2011: 315-323. |
[15] | SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going Deeper with Convolutions[C]//IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 1-9. |
[16] | SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout:A Simple Way to Prevent Neural Networks from Overfitting[J]. Journal of Machine Learning Research, 2014, 15(1): 1929–1958. |
[17] | ZHAO Bei, ZHONG Yanfei, XIA Guisong, et al. Dirichlet-Derived Multiple Topic Scene Classification Model for High Spatial Resolution Remote Sensing Imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(4): 2108–2123. DOI:10.1109/TGRS.2015.2496185 |
[18] | ZHAO Bei, ZHONG Yanfei, ZHANG Liangpei, et al. The Fisher Kernel Coding Framework for High Spatial Resolution Scene Classification[J]. Remote Sensing, 2016, 8(2): 157. DOI:10.3390/rs8020157 |
[19] | ZHU Qiqi, ZHONG Yanfei, ZHAO Bei, et al. Bag-of-Visual-Words Scene Classifier with Local and Global Features for High Spatial Resolution Remote Sensing Imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(6): 747–751. DOI:10.1109/LGRS.2015.2513443 |
[20] | ABADI M, BARHAM P, CHEN Jianmin, et al. TensorFlow: A System for Large-scale Machine Learning[C]//Proceedings of the 12th Usenix Conference on Operating Systems Design and Implementation. Berkeley, CA: USENIX Association, 2016. |
[21] | ZHANG Fan, DU Bo, ZHANG Liangpei. Saliency-Guided Unsupervised Feature Learning for Scene Classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(4): 2175–2184. DOI:10.1109/TGRS.2014.2357078 |
[22] | LIENOU M, MAITRE H, DATCU M. Semantic Annotation of Satellite Images Using Latent Dirichlet Allocation[J]. IEEE Geoscience and Remote Sensing Letters, 2010, 7(1): 28–32. DOI:10.1109/LGRS.2009.2023536 |
[23] | CHEN Shizhi, TIAN YingLi. Pyramid of Spatial Relations for Scene-level Land Use Classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(4): 1947–1957. DOI:10.1109/TGRS.2014.2351395 |
[24] | BREIMAN L. Random Forests[J]. Machine Learning, 2001, 45(1): 5–32. DOI:10.1023/A:1010933404324 |
[25] | ADANKON M M, CHERIET M. Support Vector Machine[J]. Computer Science, 2002, 1(4): 1–28. |