«上一篇
文章快速检索     高级检索
下一篇»
  智能系统学报  2021, Vol. 16 Issue (3): 442-448  DOI: 10.11992/tis.201912002
0

引用本文  

林椹尠, 张梦凯, 吴成茂. 利用残差密集网络的运动模糊复原方法[J]. 智能系统学报, 2021, 16(3): 442-448. DOI: 10.11992/tis.201912002.
LIN Zhenxian, ZHANG Mengkai, WU Chengmao. Image restoration with residual dense network[J]. CAAI Transactions on Intelligent Systems, 2021, 16(3): 442-448. DOI: 10.11992/tis.201912002.

基金项目

国家自然科学基金项目(61671377)

通信作者

张梦凯. E-maili:zmkdyx@163.com

作者简介

林椹尠,教授,博士,主要研究方向为基于小波理论的图像处理。发表学术论文30余篇;
张梦凯,硕士研究生,主要研究方向为图像处理;
吴成茂,高级工程师,主要研究方向为模式分析与智能信息处理、图像处理与信息安全。发表学术论文200余篇

文章历史

收稿日期:2019-12-02
利用残差密集网络的运动模糊复原方法
林椹尠 1, 张梦凯 2, 吴成茂 3     
1. 西安邮电大学 理学院,陕西 西安 710121;
2. 西安邮电大学 通信与信息工程学院,陕西 西安 710121;
3. 西安邮电大学 电子工程学院,陕西 西安 710121
摘要:针对图像生成过程中由于物体运动或相机抖动产生的运动模糊问题,提出了利用残差密集网络的运动模糊图像复原方法。设计对抗网络结构,以残差密集网络为生成器,通过长短连接实现不同层次特征的融合,生成复原图像,以深度卷积网络为判别器,判断图像真伪,在生成器和判别器的对抗中提高网络性能;采用对抗损失和内容损失结合的损失函数,提高网络的复原效果;以端到端的方式,省略模糊核的估计过程,输入模糊图像直接获取复原图像。实验结果表明,该方法能够取得较好的复原效果。
关键词图像处理    运动图片    图像去噪    图像复原    深度学习    网络模型    网络结构    卷积神经网络    
Image restoration with residual dense network
LIN Zhenxian 1, ZHANG Mengkai 2, WU Chengmao 3     
1. School of Science, Xi’an University of Post and Telecommunications, Xi’an 710121, China;
2. School of Communication and Information Engineering, Xi’an University of Post and Telecommunications, Xi’an 710121, China;
3. School of Electronic Engineering, Xi’an University of Post and Telecommunications, Xi’an 710121, China
Abstract: Aiming at the problem of motion blur caused by object motion or camera shake in the image generation process, an image restoration method based on the residual dense network is proposed. An adversarial network structure is used in the method, taking the residual dense network as the generator and fusing different levels of features in a long-short connection to generate restored images. The deep convolution network acts as the discriminator to identify the authenticities of images, training the network performance in adversarial between the generator and discriminator. The proposed method combines the adversarial and content losses to improve the effectiveness of network restoration. This study demonstrates the restoration of an input blur image in an end-to-end way without estimating the blur kernel. Experiments show that the proposed method results in a better restoration effect.
Key words: image processing    motion pictures    image denoising    image restoration    deep learning    network model    network architecture    convolutional neural network    

由于相机抖动、环境干扰或者物体运动等诸多因素的影响,都会导致生成的图像产生运动模糊[1]。在刑侦、医疗、军事等图像应用领域,需要高质量的图像,而图像的获取却不容易,因此对目标图像复原,是计算机视觉研究领域中一个重要的研究方向[2]

图像复原的目的是去除模糊和干扰,得到尽可能接近理想图像的复原图像。传统的图像复原方法假设退化模型已知或者可以通过简单的计算得到点扩散函数,利用已知信息有针对性地进行复原。但是在现实生活中,图像退化过程受到各种因素的影响,造成图像退化的结果也不尽相同,因此点扩散函数无法精确得到,所以传统的图像复原方法不能很好地解决图像复原问题。

近几年,计算机视觉领域广泛应用深度学习的方法,并且取得了惊人的成果。Zhou等[3]首次将神经网络用于图像复原,提出了基于离散Hopfield神经网络的图像复原模型;Jain等[4]将卷积神经网络用于图像去噪,证明了卷积神经网络可以直接学习从低质量图像到清晰图像的端到端的非线性映射,能够较好地复原图像;Huang等[5]提出了密集网络(DenseNet)模型,DenseNet能够以连接模式连接密集单元中的任意2个卷积层,实现了特征重用及信息传递,为图像复原提供了新的思路;Zhang等[6]首次将残差学习和批处理归一化引入图像复原,提出去噪卷积神经网络(DnCNN),该网络可训练单一的网络模型进行盲去噪,比针对特定噪声水平训练的方法有更好的性能。Liu等[7]提出非局部循环神经网络(NLRN),利用图像的自我相似度,通过捕捉一个特征与其邻近特征的相关性进行图像重建,有较好的图像复原能力。Guo等[8]使用卷积网络,其包括噪声估计子网络和非盲去噪子网络,并提出非对称学习损失函数,实现真实图像的盲去噪。Cha等[9]提出全卷积自适应图像去噪网络,使用正则化方法获得更鲁棒的自适应性。2014年,Goodfellow等[10]受到博弈论的启发提出生成对抗网络(generative adversarial network, GAN),GAN网络模型由生成网络和判别网络组成,在生成图像方面具有显著的优势。Kupyn等[11]提出了利用生成对抗网络消除运动模糊的方法DeblurGAN,该方法可以有效地消除单张运动模糊。Wang等[12]使用残差生成对抗网络复原退化图片,提高了网络的稳定性和效率。Zhou等[13]提出标签去噪对抗网络(LDAN)用于逆光照明人脸图像,通过生成对抗网络生成的图像来训练深度卷积网络,提高了图像复原效果。这些方法都有效地改善了图像复原效果,但是在复杂的现实环境中使用有一定的局限性。

本文提出一种针对运动模糊的网络模型,以生成对抗网络为框架,生成网络使用残差网络和密集网络结合的残差密集网络(residual dense network, RDN)[14],将模糊图像输入到生成网络中,输出复原图像;判别网络使用深度卷积网络,判断输入图像是否真实。使用内容损失和对抗损失共同优化网络。在公开的GoPro数据集和Celeba数据集上实验,并与其他复原算法对比分析,验证残差密集网络在图像复原中的优势。

1 相关网络 1.1 生成对抗网络

生成对抗网络首次提出来后,就获得了广泛的关注,其强大的图像生成能力,使其在图像合成、图像修补、超分辨率、图像复原等方面得到广泛应用。生成对抗网络是深度学习中一种无监督学习网络模型,网络分成生成器(generator, G)和判别器(discriminator, D),生成器模拟真实数据分布情况,以产生相似的样本数据为目的;判别器判断样本是否来自真实数据集。生成对抗网络模型如图1所示。

Download:
图 1 生成对抗网络模型 Fig. 1 GAN model

在训练过程中,生成网络 ${\rm{G}}$ 的目标是生成接近真实样本的生成样本,以此来“迷惑”判别网络 ${\rm{D}}$ ${\rm{D}}$ 的目标是判断输入的样本是生成样本还是真实样本。这样, ${\rm{G}}$ ${\rm{D}}$ 构成了一个动态的“博弈”,在相互对抗中提升各自的性能,这就是生成对抗网络的基本思想。两者通过不断地博弈学习,最终, ${\rm{G}}$ 生成的样本能够“以假乱真”, ${\rm{D}}$ 无法区分输入的样本是真实的样本还是由生成器生成的样本,此时生成器达到最好状态。

1.2 残差密集网络

残差密集网络结合残差网络与密集网络,将网络模型中不同单元提取的浅层特征与深度特征融合,在图像复原中取得了很好的效果。

RDN包括浅层特征提取、残差密集单元(residual dense block, RDB)、全局特征融合3部分。首先,对原始图像进行卷积操作提取浅层特征,将浅层特征作为残差密集单元的输入;残差密集单元包含密集连接和局部特征融合,其输出与下一个单元内的各个卷积层直接相关,实现了单元之间的信息连续传递;随后,全局特征融合实现了浅层特征和各个单元提取的不同分层特征之间的全局特征融合,局部特征融合及全局特征融合均以短连接的方式实现,最终的融合特征用于图像重建。由于图像复原中大量的信息复用,充分利用不同单元提取的分层特征,将浅层特征与深层特征结合能够提供丰富的图像细节信息,有利于图像复原。

2 网络模型

使用的网络模型包括2个部分:生成网络和判别网络。生成网络是一个RDN网络,判别网络是深度卷积网络。网络模型如图2所示。

Download:
图 2 RDN-GAN网络结构 Fig. 2 Network structure of RDN-GAN
2.1 生成网络

生成网络的目的是生成复原图像。生成网络是一个由残差网络和密集网络结合而成的残差密集网络,残差网络能够有效缓解随着网络深度增加引发的梯度消失的现象,这样即使增加网络深度,还能够保持很好的性能和效率;密集网络通过特征复用,能够加强特征传播,减少参数量。由于在进行图像复原的过程中,模糊图像和清晰图像之间的相似度很高,即两者之间会有很多共享的信息,残差网络能够有效地学习两幅图像之间的映射关系,并且结合密集网络结构使得网络更加稳定。

残差网络和密集网络结合形成的RDB作为主要网络单元,RDB结构如图3所示。RDB首先经过一个6层的全卷积网络,根据密集连接机制,每一层的输入都会拼接前面所有层作为额外的输入。由于累计拼接会导致特征层数量过多,所以设置一个1×1的卷积层,用于多通道的特征融合,并起到降维的作用。在最后将输入与输出进行特征融合作为新的输出。在RDB中,输入图像信息的维度不会改变,这样可以避免通过反卷积来进行上采样所造成的棋盘效应(checkerboard artifacts)[15]

Download:
图 3 RDB结构 Fig. 3 Structure of RDB

输入图像首先经过2个卷积层,进行浅层特征提取,得到64个特征图(feature map);接着排列着3个RDB,RDB的输出会通过拼接方式结合,并使用1×1卷积层进行特征融合;然后通过一个卷积层,并与第一次卷积结果相加;最后通过卷积完成密集特征融合,并把特征图转换成输入图像维度,且与输入图像相加,通过tanh激活函数作为最后的输出。生成网络中的所有卷积层,卷积核的大小设置为3×3,步长设置为1,通过填充输入图像边界(Padding)的方式,保持图像的分辨率不变。除了最后一层卷积层之外,每个卷积层之后都跟随一个带泄漏修正线性单元(leaky rectified linear units,LReLU)激活函数。

2.2 判别网络

判别网络用于估计输入的图片是来自于训练样本还是生成样本的概率,如果输入来自真实的训练样本,则输出概率越高,如果输入是生成样本,则输出概率越低。判别网络是一个全卷积网络,遵循Radford等[16]的设计样式,判别网络参数设置如表1所示。

表 1 判别器网络参数 Tab.1 Parameters of discriminator

判别网络中全部使用卷积核大小为3×3的卷积层,并且在卷积层后面跟随一个LReLU激活函数。接着经过一个1024的全连接层(fully connected layer,FC),最后通过一维的全连接层,并通过Sigmoid输出判决结果。

3 损失函数

损失函数由内容损失函数和对抗损失函数组成,共同优化网络模型,即

$L = {\lambda _{\rm{1}}}{L_a} + {\lambda _{\rm{2}}}{L_C}$ (1)

式中: ${L_a}$ 为对抗损失函数; ${L_{\rm{C}}}$ 为内容损失函数; ${\lambda _{\rm{1}}}$ ${\lambda _{\rm{2}}}$ 为权重系数。

3.1 内容损失函数

内容损失函数通过对比生成图像和真实图像的每个像素值,保证最后的生成图像能够接近理想值。内容损失函数一般使用 ${L_1}$ 损失或者 ${L_2}$ 损失。然而,有研究发现[17],由于 ${L_2}$ 损失对异常值更加敏感,使用 ${L_1}$ 损失可以减少重构图像中斑点状的人工痕迹,并减小误差,因此本文使用 ${L_1}$ 损失作为内容损失, ${L_1}$ 损失定义为

${L_1} = {\left\| {G({z_i}) - {x_i}} \right\|_1}$ (2)

式中: $x$ 为真实图像; $G(z_i)$ 为生成器生成的图像。

3.2 对抗损失函数

由于像素间的误差影响,内容损失函数将在所有解的平均值处收敛[18],这会导致复原图像过于平滑,丢失锐利的边缘信息,而模糊依然存在。因此把内容损失函数和对抗损失函数结合起来共同作为损失函数。

假设用于训练的真实图像数据是 $x$ ,噪声为 $z$ ,生成模型 ${\rm{G}}$ 能够生成图像,实际是 $G(z)$ 的分布应该尽可能接近真实图像的数据分布 ${p_{\rm{data}}}(x)$ 。根据交叉熵损失,可构造损失函数为

$V(D,G) = {E_{x \sim {p_{\rm{data}}}(x)}}[\ln D(x)]{\kern 1pt} + {E_{z \sim {p_z}(z)}}[\ln (1 - D(G(z)))]$ (3)

式中: ${E_{x \sim {p_{\rm{data}}}(x)}}$ 是指直接在训练数据 $x$ 中取得真实样本;而 ${E_{z \sim {p_z}(z)}}$ 是指从已知的噪声分布中取得样本; ${p_z}(z)$ 为噪声分布; $D(x)$ 表示 ${\rm{D}}$ 判断真实图像是否真实的概率,因为 $x$ 是真实的,所以对于 ${\rm{D}}$ 来说,这个值越大越好;而 $D(G(z))$ ${\rm{D}}$ 判断 ${\rm{G}}$ 生成的图像是真实的概率。

${\rm{G}}$ 希望生成的图像越真实越好,即 ${\rm{G}}$ 希望 $D(G(z))$ 尽可能地大。因此 ${\rm{G}}$ 希望 $V(D,G)$ 越小越好。

$\mathop {\min }\limits_{\rm{G}} V(D,G) = {E_{z \sim {p_z}(z)}}[\ln (1 - D(G(z)))]$ (4)

${\rm{D}}$ 的能力越强, $D(x)$ 应该越大, $D(G(z))$ 应该越小。因此 ${\rm{D}}$ 的目的和 ${\rm{G}}$ 不同, ${\rm{D}}$ 希望 $V(D,G)$ 越大越好。

$\mathop {\max }\limits_{\rm{D}} V(D,G) = {E_{x \sim {p_{\rm{data}}}(x)}}[\ln D(x)] + {E_{z \sim {p_z}(z)}}[\ln (1 - D(G(z)))]$ (5)

由判别器 ${\rm{D}}$ 和生成器 ${\rm{G}}$ 共同得到目标函数 ${L_a}$

$\begin{array}{r} {L_a} = \mathop {\min }\limits_{\rm{G}} \mathop {\max }\limits_{\rm{D}} V(D,G) = {E_{x \sim {p_{\rm{data}}}(x)}}[\ln D(x)]{\kern 1pt} + \\ {E_{z \sim {p_z}(z)}}[\ln (1 - D(G(z)))] \quad\quad\quad\quad\quad\end{array} $ (6)
4 实验分析 4.1 数据集处理

实验使用的数据集包括两部分:一个是Nah等[19]公开的GoPro数据集,另一个是在Celeba[20]部分数据集上添加运动模糊。GoPro数据集包含了使用相机拍摄合成的不同街道视角的模糊图像,整个数据集一共有3214对模糊清晰图像对,其中训练集有2103对图像,测试集有1111对图像。Celeba数据集包括200000张左右的人脸图像,通过拉普拉斯算子筛选清晰图像2500张,通过仿真程序给图像添加9像素的运动模糊,结合清晰图像,制作训练集2 000对图像,测试集500张图像。所有的图像都重新设置大小为 ${\rm{128}} \times 128$

4.2 实验设置

实验中使用批处理大小为1,设置对抗损失权重 ${\lambda _{\rm{1}}}{\rm{ = 1}}$ ,内容损失函数权重 ${\lambda _{\rm{2}}}{\rm{ = 100}}$ 。实验中使用自适应矩阵估计(adaptive moment estimation, ADAM)算法优化损失函数,设置初始学习率为0.0002,衰减系数 ${\beta _1} = 0.5$

实验中设置迭代周期为100个,每个周期迭代一遍训练集图像,每一次交替训练判别器和生成器。

4.3 评价指标

为了客观评价复原图像效果,实验使用峰值信噪比(peak signal-to-noise ratio,PSNR)[21]和结构相似性(structural similarity,SSIM)[22]作为评价指标。

PSNR基于对应像素点间的误差来评价图像质量,PSNR的值越高表示图像失真越小,PSNR定义为

${\rm{PSNR}} = 20{\rm{lg}}\left(\frac{{{2^n} - 1}}{{\sqrt M }}\right)$ (7)

式中: $n$ 为每个像素的比特数,通常像素为8 bit时取 $n = 8$ $M$ 为两幅灰度图像的均方差。

SSIM以每个像素为中心的小块为单位,同时对比图像块的亮度、对比度和结构,SSIM的值越接近1,表示两图像越接近,SSIM定义为

${\rm{SSIM}} = \frac{{(2{\mu _x}{\mu _y} + {C_1})(2{\sigma _{xy}} + {C_2})}}{{(\mu _x^2 + \mu _y^2 + {C_1})(\sigma _x^2 + \sigma _y^2 + {C_2})}}$ (8)

式中: $x$ $y$ 为输入图像; $\mu $ 为图像的灰度平均值; $\sigma $ 为图像的标准差; ${\sigma _{xy}}$ 为两幅图像的协方差, ${C_1}$ ${C_2}$ 为常数,本文设置 ${C_1} = 6.502\;5$ ${C_2} = 58.522\;5$

4.4 结果分析

实验使用CPU为Intel i5,内存8 GB,GPU为NVIDA GeForce GTX 980 Ti,同时使用TensorFlow深度学习框架,Python编程语言。本文算法在GoPro数据集上训练30 h,在Celeba数据集上训练24 h。

为了验证本文算法对图像运动模糊的复原效果,选取具有代表性的方法DnCNN模型[6]、DeblurGAN模型[8]和SRNDeblur模型[23],与本文方法进行比较。为了公正地对比各种算法,均使用相同的实验环境和相同的数据集进行训练。

实验结果如图45所示,图4为在Celeba数据集上的复原结果,图5为GoPro数据集的复原结果。基于本文方法的复原结果在主观视觉效果中均得到了较好的结果,如在图4中贝壳放大后的纹理,以及路面上的细节都很好地复原了原图信息;而DeblurGAN和SRN-Deblur虽然整体看起来比较清晰,但是放大后可以看出一些细节丢失;DnCNN的复原结果不是很好,有严重的振铃现象。

表2是两组实验的图像质量评价结果,平均耗时为处理测试集中单张图片的平均花费时间。从表2中可以看出,在两个数据集中,本文方法的PSNR和SSIM两种量化指标都要优于其他两种方法。在平均耗时方面,DeblurGAN算法和DnCNN算法的执行速度最快,单张图片耗时最少;SRN-Deblur算法的执行速度最慢,单张图片耗时在30 s左右;本文方法有较快的执行速度,单张图片耗时在1 s左右。

Download:
图 4 Celeba数据集实验结果 Fig. 4 Results of the Celeba dataset
Download:
图 5 GoPro数据集实验结果 Fig. 5 Results of the GoPro dataset
表 2 结果对比 Tab.2 Comparison of the results
5 结束语

针对相机成像时抖动、环境干扰、物体运动等原因产生的图像运动模糊问题,本文提出了一种利用残差密集网络的端到端图像盲复原方法,残差密集网络结合残差网络和密集网络的优点,通过长短连接的方式提取并融合不同层次的特征,由于图像生成过程中大量信息的复用,提高了图像复原的效果,并使用对抗训练的方式提高网络性能;采用对抗损失和内容损失结合的损失函数优化网络。在GoPro数据集和Celeba数据集上进行实验,通过分析对比,本文方法能够得到较好的复原效果。未来将优化算法,提高网络的训练效率;分析其他退化图像,改进网络模型,使其适用于多种退化图像。

参考文献
[1] 程俊廷, 左旺孟. 快速非均匀模糊图像的盲复原模型[J]. 黑龙江科技大学学报, 2017, 27(2): 196-199.
CHENG Junting, ZUO Wangmeng. Fast blind deblurring models for restoration of non-uniform blur images[J]. Journal of Heilongjiang University of Science and Technology, 2017, 27(2): 196-199. DOI:10.3969/j.issn.2095-7262.2017.02.021 (0)
[2] BANHAM M R, KATSAGGELOS A K. Digital image restoration[J]. IEEE signal processing magazine, 1997, 14(2): 24-41. DOI:10.1109/79.581363 (0)
[3] ZHOU Y T, CHELLAPPA R, VAID A, et al. Image restoration using a neural network[J]. IEEE transactions on acoustics, speech, and signal processing, 1988, 36(7): 1141-1151. DOI:10.1109/29.1641 (0)
[4] JAIN V, SEUNG S. Natural image denoising with convolutional networks[C]//Advances in Neural Information Processing Systems. Vancouver, Canada, 2009: 769−776. (0)
[5] HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA, 2017: 2261−2269. (0)
[6] ZHANG Kai, ZUO Wangmeng, CHEN Yunjin, et al. Beyond a Gaussian denoiser: residual learning of deep CNN for image denoising[J]. IEEE transactions on image processing, 2017, 26(7): 3142-3155. DOI:10.1109/TIP.2017.2662206 (0)
[7] LIU Ding, WEN Bihan, FAN Yuchen, et al. Non-local recurrent network for image restoration[C]//32nd Conference on Neural Information Processing Systems. Montréal, Canada, 2018: 1673−1682. (0)
[8] GUO Shi, YAN Zifei, ZHANG Kai, et al. Toward convolutional blind denoising of real photographs[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, USA, 2019: 1712−1722. (0)
[9] CHA S, MOON T. Fully convolutional pixel adaptive image denoiser[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, Korea (South), 2019: 4159−4168. (0)
[10] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems. Montreal, Canada, 2014: 2672−2680. (0)
[11] KUPYN O, BUDZAN V, MYKHAILYCH M, et al. DeblurGAN: blind motion deblurring using conditional adversarial networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA, 2018: 8183−8192. (0)
[12] WANG M, LI H, LI F. Generative adversarial network based on resnet for conditional image restoration[EB/OL]. [2021−06−07] https://arxiv.org/abs/1707.04881. (0)
[13] ZHOU H, SUN J, YACOOB Y, et al. Label denoising adversarial network (LDAN) for inverse lighting of faces[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA, 2018: 6238-6247. (0)
[14] ZHANG Yulun, TIAN Yapeng, KONG Yu, et al. Residual dense network for image super-resolution[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA, 2018: 2472−2481. (0)
[15] SAJJADI M S M, SCHÖLKOPF B, HIRSCH M. EnhanceNet: single image super-resolution through automated texture synthesis[C]//Proceedings of the IEEE International Conference on Computer Vision. Venice, Italy, 2017: 4501−4510. (0)
[16] ADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. [2021−06−07] https://arxiv.org/abs/1511.06434. (0)
[17] ZHAO Hang, GALLO O, FROSIO I, et al. Loss functions for image restoration with neural networks[J]. IEEE transactions on computational imaging, 2017, 3(1): 47-57. DOI:10.1109/TCI.2016.2644865 (0)
[18] WHYTE O, SIVIC J, ZISSERMAN A, et al. Non-uniform deblurring for shaken images[J]. International journal of computer vision, 2012, 98(2): 168-186. DOI:10.1007/s11263-011-0502-7 (0)
[19] NAH S, KIM T H, LEE K M. Deep multi-scale convolutional neural network for dynamic scene deblurring[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA, 2017: 257−265. (0)
[20] BENGIO Y, LOURADOUR J, COLLOBERT R, et al. Curriculum learning[C]//Proceedings of the 26th Annual International Conference on Machine Learning. Montreal, Canada, 2009: 41−48. (0)
[21] 佟雨兵, 张其善, 祁云平. 基于PSNR与SSIM联合的图像质量评价模型[J]. 中国图象图形学报, 2006, 11(12): 1758-1763.
TONG Yubing, ZHANG Qishan, QI Yunping. Image quality assessing by combining PSNR with SSIM[J]. Journal of image and graphics, 2006, 11(12): 1758-1763. DOI:10.11834/jig.2006012307 (0)
[22] WANG Zhou, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE transactions on image processing, 2004, 13(4): 600-612. DOI:10.1109/TIP.2003.819861 (0)
[23] TAO Xin, GAO Hongyun, SHEN Xiaoyong, et al. Scale-recurrent network for deep image deblurring[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA, 2018: 8174−8182. (0)