文章信息
- 乔凯, 黄石生, 智喜洋, 孙晅, 赵明
- QIAO Kai, HUANG Shi-sheng, ZHI Xi-yang, SUN Suan, ZHAO Ming
- 光学卫星在轨动态场景实时匹配方法及试验
- On-orbit dynamic scene real-time matching method and experiment of optical satellite
- 中国光学, 2019, 12(3): 575-586
- Chinese Optics, 2019, 12(3): 575-586
- http://dx.doi.org/10.3788/CO.20191203.0575
-
文章历史
收稿日期: 2018-12-24
修订日期: 2019-01-18
2. 哈尔滨工业大学 空间光学工程研究中心, 黑龙江 哈尔滨 150001;
3. 大连海事大学 信息科学技术学院, 辽宁 大连 116026
2. Research Center for Space Optical Engineering, Harbin Institute of Technology, Harbin 150001, China;
3. College of Information Science and Technology, Dalian Maritime University, Dalian 116026, China
高分辨率遥感卫星能够迅速、准确地获取地物信息,在军民应用领域发挥着重要作用。特别是以KH-12为代表的美国军用遥感卫星,地面分辨率优于0.1 m,以WorldView-3为代表的商业遥感卫星,可提供分辨率优于0.4 m全色图像[1-3]。
但现有卫星在轨图像质量仍不够理想,主要体现为图像模糊、有雾状感、边缘锐度不强,且存在动态范围偏窄、有效量化和有效信息不足的问题。立足于光学遥感全链路,通过图像复原的方法可消除相机光学系统、探测器、成像电子学以及卫星平台环境和大气路径等因素引起的图像模糊、噪声等像质退化。关于模糊、噪声处理算法的研究很多[4-7]。然而关于图像动态范围展宽方面,多是通过直方图调整、多曝光图像融合、多尺度图像融合等地面处理方式,以增强图像清晰度和对比度[8-11]。这些方法仍无法从根本上解决图像有效量化不足的问题,且图像中暗场景和边缘区域的处理性能会受到制约。实际上,目前相机动态范围(灰阶)可达到211以上,理论上能够满足通常成像条件下场景信息的获取需求,但国内在轨卫星(高分二号、吉林一号等)数据统计分析结果显示,有效量化仅达到了6~8位,这主要是由于卫星在轨运行过程中设置的成像参数和实时拍摄场景的动态范围存在不适配性。
因此,依据卫星在轨成像实时拍摄的动态场景进行相机成像参数的设计与动态调整,对进一步提升暗或亮场景细节信息的分辨能力,具有重要意义和实际工程应用价值。本文从卫星在轨成像动态范围的影响机理出发,研究卫星在轨动态场景实时匹配方法,同时利用无人机开展飞行试验验证。
2 卫星在轨成像场景动态及其影响要素分析 2.1 卫星在轨成像图像动态范围分析从低动态范围卫星在轨图像直方图(如图 1所示)拉伸前后结果来看,与高动态卫星图像相比,其卫星图像灰度层次不够丰富,灰度分布在相对较窄范围,而且直方图经拉伸后出现灰阶断层。这也是导致图像整体偏暗或高亮度场景区域出现饱和、景物纹理细腻度不够的主要原因。
![]() |
图 1 不同卫星图像直方图拉伸前后分布对比 Fig.1 Distribution comparison of different satellite image histograms before and after stretching |
光学卫星通常采用线阵推扫式TDICCD相机,通过多级TDI-CCD对地面同一场景进行多次曝光,从而获取高信噪比、高质量的图像。为了避免高动态场景区域图像灰度的过饱和,卫星在轨运行中一般采用固定的积分级数与增益[12-13]。设置增益的作用是使芯片输出电压与AD转换器电压相适应,从而提高输出量化位数。假定模数转换器的最大电压为2 V,曝光时间固定时,模拟电压为0.5~1.1 V,通过增益放大2倍可使CCD输出电压与AD转换器电压相符。
然而卫星在轨运行中,成像场景不断转变(可能由陆地变成海洋、森林变成沙漠),气候条件复杂多变(包含晴天、阴天),太阳高度角也在时刻发生改变,因此相机在不同时刻获取图像中的场景动态范围存在差异,采用固定的积分级数和增益参数无法满足动态场景实时匹配需求。在轨应用中,为了避免高亮度场景发生灰度饱和,通常将积分级数和增益参数控制在相对适中的范围以内,从而使场景信息集中在低灰度范围。这是造成图像整体偏暗、暗场景区域细节信息丢失的根本原因。
为了实现卫星在轨动态场景的实时匹配,需要在轨运行中实时解算成像场景的动态范围,并以此为依据合理调整相机积分级数和增益参数。而相机入瞳处的辐照度不仅包含场景本身的辐射能量,还包含大气程辐射,其在图像中表现为背景辐射,直接影响有效灰阶范围。由图 2可见:大气程辐射造成的背景辐射已占1/3,图像整体偏暗、有雾状感,且多处高亮度场景区域出现灰度饱和。本文结合钳位技术在模拟域上消除背景辐射的影响,利用该技术可在高端动态保持不变的情况下,增大积分级数或增益,从而使相机的低端动态得到充分利用,有效提高有效灰阶。
![]() |
图 2 含大气程辐射的实拍图像(a)及其直方图分布(b) Fig.2 Actual image with atmospheric radiation(a) and corresponding histogram distribution(b) |
此外,当图像中包含云场景时,由于云具有较高反射率,图像中表现为高亮度饱和区域[14],容易被误判为地面场景的高动态信息,从而影响场景动态范围的测量。
3 卫星在轨动态场景实时匹配方法 3.1 匹配总体方案卫星在轨动态场景实时匹配方案如图 3所示。由图 3可知,为了实现相机在轨动态场景与实时拍摄的地面场景动态范围达到最佳匹配,采用测光-解算-成像的工作方式。首先采用独立的测光相机在t1时刻对地面场景进行成像,而后根据测光结果,结合大气程辐射预估和云检测获得实时拍摄场景的动态范围。最后成像相机根据场景动态调整积分级数和增益,并设置钳位值,在t2时刻对地面场景进行成像。
![]() |
图 3 卫星在轨动态场景实时匹配方案 Fig.3 Real-time matching scheme for satellite dynamic scene |
由3.1节可见:大气程辐射和云场景对地面场景低亮度和高亮度信息的测量存在干扰,在场景动态范围测量中需将二者剔除。下面给出大气程辐射预估和云检测方法。
3.2.1 大气程辐射预估方法通过对不同拍摄时间、不同地面场景和含不同程度大气程辐射效应的100幅图像进行统计特性分析得知,大气程辐射对图像特性的影响体现为直方图偏离原点。图 4为不同钳位值时的图像直方图。由图 4可见,通过增大钳位电压值可使直方图向左偏移,当钳位电压值达到某数值后,再增大钳位值会使暗场景区域的目标信息丢失(如图 5),此时直方图的形状也将发生改变(如图 4(d))。
![]() |
图 4 不同钳位电压值下的图像直方图 Fig.4 Image histograms with different clamping voltage values |
![]() |
图 5 钳位电压值为500 mV的成像结果 Fig.5 Imaging results when clamp voltage value is 500 mV |
根据上述特征,本文提出基于直方图特性确定钳位电压值并在模拟域消除大气程辐射的方法。首先,寻找图像直方图的首个上升沿(如图 6(a))所示)。然后,利用二次曲线拟合出上升沿函数,求出上升沿与横坐标轴的交点,从而确定大气程辐射对应的灰度值。最后,将该处的电压值设置为钳位电压,保证暗场景细节信息不丢失。为了提高方法的鲁棒性,从横坐标轴与拟合曲线的交点处沿曲线向上搜索,发现图像中包含暗点时判读其是否为连续点,若包含连续点则将该点的电压值设置为钳位电压。图 6(b)中竖线所示位置即为钳位电压值处。
![]() |
图 6 钳位电压设置示意图 Fig.6 Demonstration of clamping voltage selection |
云检测的总体思路如图 7所示,主要包括特征分类训练与源模式判别两个部分。在特征分类训练中,本文选取具有代表性的云及其下垫面图像块作为训练样本。首先,基于云与下垫面地物场景的物理属性差异,构造并提取其特征参量,将样本映射为特征空间中的点[14]。然后,根据各参量对云和下垫面样本的分割程度选择特征参量,并利用特征压缩技术[15]进行特征空间压缩。最后,利用分类学习机[16]对样本进行分类训练,得到分类器。在源模式判别中,本文针对待检测图像进行特征参量提取与压缩,并输入分类器进行模式判别,完成云检测。
![]() |
图 7 云检测总体思路 Fig.7 Overall scheme of cloud detection |
剔除大气程辐射和云对场景动态范围测量的影响后,即可解算被摄场景的动态范围,解算方法如图 8所示,首先根据测光相机辐射标定关系和饱和辐亮度预估值,确定测光相机的曝光时间和增益。然后,分别根据测光相机对地面两次成像结果,统计出地面场景高亮度和低亮度信息,从而实现场景动态范围的测量。
![]() |
图 8 场景动态范围解算方法 Fig.8 Scene dynamic range calculation method |
本文采用测光相机对场景动态范围进行测量。由于测光相机与成像相机使用的传感器不同,为了使测光相机得到的动态范围可以被成像相机所用,必须首先对两台相机的辐射响应进行精确标定[17]。
设E′s为成像相机的相对辐照度值,相机增益为gts2,设E′m为测光相机的相对辐照度值,相机增益为gtm。利用实验室光源和积分球使两台相机的传感器获得相同的辐照度,则此时相对辐照度的换算方法为:

然后根据实际成像的场景动态,并结合测光相机与成像相机标定关系,解算相机的成像参数,根据场景动态和相机动态范围关系,分为两种情况进行分析:
(1) 当场景动态范围小于相机动态范围时,相机成像参数的解算公式为[12]:

其中,t表示曝光时间,gv表示模拟前端(AFE)可变增益放大器(VGA)的增益,vsat表示饱和图像灰度,ov表示根据gv变化的直流偏置电压所对应的灰度值,E′max表示被测场景下传感器接收到的最大相对辐照度。
(2) 当场景动态范围大于相机动态范围时,又分为两种情况进行解算:
① 高亮度匹配:高亮度匹配即是成像相机动态范围包含场景动态的最高亮度点,舍去部分的低亮度信息,保证高亮度信息的不丢失。匹配方法为令像面照度最大值处像素的输出信号恰好饱和,此时,参数解算方法与第(1)种情况一致。
② 低亮度匹配:低亮度匹配即是相机动态范围包含场景动态的最低亮度点,舍去部分的高亮度信息,保证低亮度信息的不丢失。相机成像参数的解算公式为:

其中,“1”表示像素最低灰度值。E′min表示相机像元接收的最小相对辐照度。
在t和gv的匹配优化设置中,考虑到增大gv会引起噪声放大,因此首先调整积分级数,仅在所需t超出系统允许上限时进行增益调整。
实际在轨应用中,场景动态范围通常大于相机动态范围,此时很难通过单次成像实现暗场景和亮场景细节信息的同时获取。可采用两次成像方案,分别采用高亮度匹配和低亮度匹配,并采用一种基于亮度参考模型的图像融合方法[18]对高匹配和低匹配图像进行融合处理。首先,将图像转换为YCbCr空间,对Y分量的图像进行滤波,得到亮度参考图像。根据亮度参考图像设置权重。权重设置原则为:给曝光适当的区域设置较大权重,对过曝光或欠曝光区域设置较小权重。考虑到正常曝光的像素值在128左右,本文为其设定了较大权重。
4 动态场景实时匹配试验 4.1 匹配性能评价指标图像灰阶范围和信息熵能够直接反映图像的有效动态范围和信息含量的丰富程度,因此本文采用它们对匹配方法的有效性和处理性能进行评价。
本文将图像的灰阶范围定义为:

式中,Range表示灰阶范围,graymax表示去除图像中最亮10%像素后的最大灰度值,graymin为去除最暗10%像素后的最小灰度值。
图像信息熵定义[19]为:

式中,Pi表示图像中灰度值为i的像素所占的比例。
本文将匹配方法对图像灰阶和熵提升性能的评价指标定义为:

式中,Rate表示灰阶范围的平均提升值,N表示图像大小,GRfixed、GRLpath分别表示消除大气程辐射前、后图像的灰阶范围。
4.2 无人机外场试验方案利用无人机搭载测光相机与成像相机,平台结构示意图和整机实物图如图 9、图 10所示,其中测光相机和成像相机均选用德国ximea高速相机和尼康标准变焦镜头,其焦距为24~120 mm,最小光圈值为22,传感器型号为MC050MG-SY。当飞行高度为100 m时,为了模拟卫星在轨工作状态,设置测光相机比成像相机预先观测10 m的目标场景,此时计算测光相机与成像相机的角度为5.7°。为了保持无人机稳定飞行,将其飞行速度设置为1 m/s,因此两次测光-拍照之间的间隔为10 s。
![]() |
图 9 无人机平台结构图 Fig.9 Structure diagram of UAV platform |
![]() |
图 10 无人机整机实物图 Fig.10 Prototype of UAV |
在设定无人机飞行轨迹时,设定一个目标点,令无人机按照1 m/s速度飞向目标点,在无人机飞行的过程中,利用其上搭载的测光相机获取目标场景图像,根据感兴趣区域解算第二次曝光时间,待无人机运行1 s后时开始第二次测光。在测光相机第二次测光时,改变开窗位置对同一目标场景成像。通过两次测光图像,测量目标场景的动态范围并确定成像相机的曝光时间和增益。10 s后成像相机到达测光相机测量的场景区域,在成像相机通过该区域时,利用动态场景实时匹配方法解算的曝光时间和增益采集地面场景图像。同时,在相同飞行轨迹下,利用成像相机对准待测目标场景,而后改变曝光时间和增益拍摄场景,采集不同曝光时间和增益下同一场景的序列图像,最后通过统计匹配图像和序列图像的灰阶范围与图像熵,说明匹配方法的有效性和处理性能。
4.3 外场实验及结果分析2016年9月20日和2016年10月7日下午14:00(分别为晴天和阴天),选择10种不同类型的场景区域进行了无人机飞行试验。图 11给出了不同曝光时间下场景1的序列图像。第1次曝光时间设定为0.1 ms,解算第2次曝光时间为2.061 ms。由图 11(a)、11(b)可见,第1次成像尽管出现了暗场景信息丢失问题,但较好地保留了高动态的屋顶场景信息,而第2次成像出现了高动态场景信息丢失问题,但较好地保留了低动态场景信息。利用两次图像解算出实时匹配的成像相机曝光时间为0.424 ms。从图 11 (c)和其它曝光时间下成像获取的序列图像对比看,利用本文提出的匹配方法可根据实时拍摄的地面景物合理地设置相机参数,实现相机与场景动态范围的最佳匹配。
![]() |
图 11 不同曝光时间下相同场景的序列图像 Fig.11 Sequence images of the same scene with different integration times |
利用测光相机对场景进行两次测光,而后成像相机根据匹配结果实时调整参数对同一场景进行成像的结果如图 12所示。表 1给出了匹配前后图像质量的评价结果。从图 12(c)和12(f)和表 1可见,动态场景匹配方法能够根据地面场景实时解算相机参数,匹配后图像的有效灰阶提升优于100%,信息熵提升优于40%。
![]() |
图 12 两次测光图像及动态匹配结果 Fig.12 Two photometric images and corresponding dynamic matching results |
图像灰阶 | 图像熵 | |||||
固定曝光 | 匹配后 | 提升/% | 固定曝光 | 匹配后 | 提升/% | |
场景1 | 24.2 | 204.3 | 744.2 | 3.945 | 6.9490 | 76.1 |
场景2 | 15.9 | 153.8 | 867.3 | 3.496 | 6.6881 | 91.3 |
场景3 | 33.4 | 217.3 | 550.6 | 4.080 | 6.3607 | 55.9 |
场景4 | 42.9 | 232.7 | 442.4 | 4.571 | 7.1191 | 55.7 |
场景5 | 29.5 | 189.1 | 541.0 | 4.473 | 6.9889 | 56.2 |
场景6 | 38.6 | 209.0 | 441.5 | 4.043 | 6.4393 | 59.3 |
场景7 | 55.2 | 229.8 | 316.3 | 5.082 | 7.4558 | 46.7 |
场景8 | 50.2 | 182.6 | 263.7 | 3.762 | 6.0114 | 59.8 |
场景9 | 61.9 | 226.0 | 265.1 | 3.875 | 5.4261 | 40.0 |
场景10 | 16.0 | 157.5 | 884.4 | 3.633 | 6.9047 | 90.1 |
为进一步验证方法的实际应用能力,本文在Visual Studio2013环境下开发了在轨动态场景实时匹配软件,如图 13所示。以worldview3卫星成像参数为参考,对提出方法的有效性和实时性进行了仿真实验验证,实验所采用的机器为Windows64位系统,配置I3处理器、8G内存。
![]() |
图 13 软件界面 Fig.13 Simulation software interface |
图 14给出了几组仿真实验中两次测光图像及匹配结果。表 2中给出了固定曝光和动态匹配曝光成像仿真结果的图像熵和图像灰阶范围等图像质量评价结果及算法运行时间,可看出经过场景动态匹配后,图像具有较高的动态范围,图像灰阶范围平均提升优于200%,图像熵平均提升40%以上。算法运行时间小于0.3 s,能够满足星上实时应用要求。
![]() |
图 14 模拟测光图像及动态场景实时匹配结果 Fig.14 Simulated photometric images and dynamic scene real-time matching results |
场景序号 | 图像灰阶 | 图像熵 | 运行时间/ms | ||||
固定曝光 | 匹配后 | 提升/% | 固定曝光 | 匹配后 | 提升/% | ||
1 | 96.3 | 204.3 | 112.2 | 5.148 | 7.117 | 38.2 | 234 |
2 | 147 | 224.1 | 51.89 | 5.09 | 6.22 | 22.2 | 281 |
3 | 32.4 | 251.8 | 677.1 | 3.82 | 6.73 | 76.1 | 249 |
4 | 104 | 234.3 | 123.7 | 6.3 | 7.55 | 19.8 | 218 |
5 | 47.3 | 248.2 | 424.8 | 4.88 | 7.5 | 53.6 | 234 |
6 | 55.9 | 221.4 | 295.7 | 4.22 | 6.43 | 52.3 | 234 |
7 | 73.5 | 209.0 | 184.4 | 4.89 | 6.45 | 31.9 | 234 |
8 | 67.6 | 208.0 | 207.4 | 5.09 | 6.77 | 33.0 | 249 |
9 | 64.6 | 196.3 | 203.6 | 5.37 | 7.18 | 33.7 | 266 |
10 | 30.7 | 209.8 | 582.3 | 4.62 | 7.33 | 58.6 | 234 |
为了达到卫星相机在轨动态和成像场景动态实时匹配的目的,研究了卫星在轨动态实时匹配方法。分析得出影响卫星在轨动态范围的关键要素,并考虑到大气程辐射对图像有效灰阶和场景动态范围测量的影响,提出基于直方图特性的大气程辐射预估方法,并给出结合动态钳位技术在模拟域对其进行消除的方法;建立了卫星在轨动态场景实时匹配方案,并考虑到测光相机和成像相机的标定关系,结合大气程辐射预估和云检测,提出场景动态范围、相机成像参数解算的方法;提出了卫星在轨动态场景实时匹配方法,利用无人机开展了试验验证。结果表明:利用该方法可根据实时拍摄的地面景物,合理设置相机参数,实现相机与场景动态范围的最佳匹配,有效灰阶提升优于100%,信息熵平均提升优于40%。
本文的分析方法以及得出的相关结论可为后续高分辨率光学卫星相机设计、在轨运行参数设置以及星上预处理算法的研究提供依据,具有理论意义和实际工程应用价值。
[1] |
RICHELSON J. The keyhole satellite program[J]. Journal of Strategic Studies, 1984, 7(2): 121-153.
|
[2] |
FLORINI A. The End of Secrecy[M]. FINEL B I, LORO K M. Power and Conflict in the Age of Transparency, New York: Palgrave Macmillan, 2000: 13-28.
|
[3] |
BELWARD A S, SKØIEN J O. Who launched what, when and why; trends in global land-cover observation capacity from civilian earth observation satellites[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 103: 115-128.
DOI:10.1016/j.isprsjprs.2014.03.009
|
[4] |
SHEN H F, PENG L, YUE L W, et al. Adaptive norm selection for regularized image restoration and super-resolution[J]. IEEE Transactions on Cybernetics, 2016, 46(6): 1388-1399.
DOI:10.1109/TCYB.2015.2446755
|
[5] |
MIN M, CAO G ZH, XU N, et al. On-orbit spatial quality evaluation and image restoration of FengYun-3C/MERSI[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(12): 6847-6858.
DOI:10.1109/TGRS.2016.2569038
|
[6] |
智喜洋, 胡建明, 李文峰, 等. 基于振动测量的卫星图像复原及要求[J]. 光学 精密工程, 2016, 24(10): 632-639. ZHI X Y, HU J M, LI W F, et al. Satellite image restoration based on measured vibration information and requirements[J]. Opt. Precision Eng., 2016, 24(10): 632-639. (in Chinese) |
[7] |
刘巧红, 李斌, 林敏. 非凸混合总变分图像盲复原[J]. 西安电子科技大学学报, 2016, 43(2): 120-125. LIU Q H, LI B, LIN M. Non-convex hybrid total variation method for image blind restoration[J]. Journal of Xidian University, 2016, 43(2): 120-125. (in Chinese) DOI:10.3969/j.issn.1001-2400.2016.02.021 |
[8] |
马泽龙, 高慧斌, 余毅, 等. 采用图像直方图特征函数的高速相机自动曝光方法[J]. 光学 精密工程, 2017, 25(4): 1026-1035. MA Z L, GAO H B, YU Y, et al. Auto exposure control for high frame rate camera using image histogram feature function[J]. Opt. Precision Eng., 2017, 25(4): 1026-1035. (in Chinese) |
[9] |
KE P, JUNG C, FANG Y. Perceptual multi-exposure image fusion with overall image quality index and local saturation[J]. Multimedia Systems, 2017, 23(2): 239-250.
|
[10] |
李卫中, 易本顺, 邱康, 等. 细节保留的多曝光图像融合[J]. 光学 精密工程, 2016, 24(9): 2283-2292. LI W ZH, YI B SH, QIU K, et al. Detail preserving multi-exposure image fusion[J]. Opt. Precision Eng., 2016, 24(9): 2283-2292. (in Chinese) |
[11] |
MENG X CH, SHEN H F, LI H F, et al. Review of the pansharpening methods for remote sensing images based on the idea of meta-analysis:practical discussion and challenges[J]. Information Fusion, 2019, 46: 102-113.
DOI:10.1016/j.inffus.2018.05.006
|
[12] |
薛旭成, 石俊霞, 吕恒毅, 等. 空间遥感相机TDI CCD积分级数和增益的优化设置[J]. 光学 精密工程, 2011, 19(4): 857-863. XUE X CH, SHI J X, LV H Y, et al. Optimal set of TDI CCD integration stages and gains of space remote sensing cameras[J]. Opt. Precision Eng., 2011, 19(4): 857-863. (in Chinese) |
[13] |
周怀得, 刘海英, 徐东, 等. 行间转移面阵CCD的TDI工作方式研究[J]. 光学 精密工程, 2008, 16(9): 1629-1634. ZHOU H D, LIU H Y, XU D, et al. Study of TDI pattern for interline transfer progressive scan CCD[J]. Opt. Precision Eng., 2008, 16(9): 1629-1634. (in Chinese) DOI:10.3321/j.issn:1004-924X.2008.09.011 |
[14] |
KING M D, KAUFMAN Y J, MENZEL W P, et al. Remote sensing of cloud, aerosol, and water vapor properties from the Moderate Resolution Imaging Spectrometer(MODIS)[J]. IEEE Transactions on Geoscience and Remote Sensing, 1992, 30(1): 2-27.
DOI:10.1109/36.124212
|
[15] |
丁世飞, 靳奉祥, 王健, 等. 一种新的基于信息论的PCA特征压缩算法[J]. 小型微型计算机系统, 2004, 25(4): 694-697. DING SH F, JIN F X, WANG J, et al. New PCA feature compression algorithm based on information theory[J]. Mini-Micro Systems, 2004, 25(4): 694-697. (in Chinese) DOI:10.3969/j.issn.1000-1220.2004.04.051 |
[16] |
MOUNTRAKIS G, IM J, OGOLE C. Support vector machines in remote sensing:a review[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2011, 66(3): 247-259.
DOI:10.1016/j.isprsjprs.2010.11.001
|
[17] |
SERGEJ T, MANTIUK R. Perceptual comparison of multi-exposure high dynamic range and single-shot camera RAW photographs[C]. Proceedings of the 13th International Conference on Image Analysis and Recognition. Póvoa de Varzim Portugal: Springer, 2016: 154-162.
|
[18] |
POHL C, VAN GENDEREN J L. Review article multisensor image fusion in remote sensing:concepts, methods and applications[J]. International Journal of Remote Sensing, 1998, 19(5): 823-854.
DOI:10.1080/014311698215748
|
[19] |
LI CH F, BOVIK A C, WU X J. Blind image quality assessment using a general regression neural network[J]. IEEE Transactions on Neural Networks, 2011, 22(5): 793-799.
DOI:10.1109/TNN.2011.2120620
|