基于全局与局部感知网络的超高清图像去雾方法

郑卓然 魏绎汶 贾修一

郑卓然, 魏绎汶, 贾修一. 基于全局与局部感知网络的超高清图像去雾方法 [J]. 智能系统学报, 2024, 19(1): 89-96. doi: 10.11992/tis.202304013
引用本文: 郑卓然, 魏绎汶, 贾修一. 基于全局与局部感知网络的超高清图像去雾方法 [J]. 智能系统学报, 2024, 19(1): 89-96. doi: 10.11992/tis.202304013
ZHENG Zhuoran, WEI Yiwen, JIA Xiuyi. UHD image dehazing method based on global and local aware networks [J]. CAAI Transactions on Intelligent Systems, 2024, 19(1): 89-96. doi: 10.11992/tis.202304013
Citation: ZHENG Zhuoran, WEI Yiwen, JIA Xiuyi. UHD image dehazing method based on global and local aware networks [J]. CAAI Transactions on Intelligent Systems, 2024, 19(1): 89-96. doi: 10.11992/tis.202304013

基于全局与局部感知网络的超高清图像去雾方法

doi: 10.11992/tis.202304013
基金项目: 国家自然科学基金项目(62176123).
详细信息
    作者简介:

    郑卓然,博士研究生,主要研究方向为深度学习和图像增强。E-mail:zhengzr@njust.edu.cn;

    魏绎汶,硕士研究生,主要研究方向为图像增强。E-mail:weiyw@njust.edu.cn;

    贾修一,教授,博士生导师,CCF高级会员,主要研究方向为机器学习、粒计算和数据挖掘。主持国家自然科学基金项目3项,参与重点研发计划项目、国家自然科学基金企业联合基金重点项目等多项。发表学术论文100余篇。E-mail:jiaxy@njust.edu.cn.

    通讯作者:

    贾修一. E-mail:jiaxy@njust.edu.cn.

  • 中图分类号: TP181

UHD image dehazing method based on global and local aware networks

  • 摘要: 当前,为实现图像全局建模的目的,基于多层感知机(multi-layer perceptron,MLP)的模型通常需要将图像上的像素进行平铺,之后实施一个自注意力机制或“混合”增强方案以获得图像的长范围依赖。然而,这些方法通常消耗大量的计算资源来弥补图像重建丢失的空间拓扑信息。特别是对于超高清图像去雾任务,大量堆积MLP的模型在资源受限的设备上执行一张超高清带雾图像时会出现内存溢出的问题。为了解决这个问题,本文提出了一种可以在单个GPU上对分辨率为4 k的图像进行实时去雾(110 f/s)的模型,该模型的建模过程中保持了图像空间结构信息,同时具有低计算复杂度的优点。

     

    Abstract: Current multilayer perceptron (MLP)-based models usually require flattening pixels on an image and subsequently enforce a self-attention mechanism or “Mix” enhancement scheme to achieve global modeling of images and obtain long-range dependence of the image. However, these approaches generally consume considerable computing resources to bridge the loss of spatial topological information in image reconstruction. Particularly for UHD image dehazing tasks, numerous stacked MLP models suffer from memory overflow when running a UHD-hazed image on a resource-constrained device. A novel model for real-time dehazing of 4 K images on a single GPU (110 fps) is proposed here to address this issue. This model is advantageous because it maintains spatial information of the raw image and has low computational complexity.

     

  • 带有雾霾的图像具有低对比度和模糊的特性,这会严重影响下游图像处理模型的表现,例如行人检测、图像分割等。对此,大量的单幅图像去雾方法被开发出来,它们的目的在于把输入的带有雾霾的图像转换成一张清晰图像。然而,伴随着移动设备和边缘设备对分辨率为4 k图像处理方法的需求的不断增长,现存的图像去雾的方法很少能高效地处理一张带雾的超高清图像[1]

    对于传统算法来说,大量的研究人员专注于雾霾和环境的物理性质,他们采用各种清晰的图像先验来规范解空间,但这些方法通常需要复杂的迭代优化方案才能找到最佳解。而且,这些手工制作的图像先验知识的复杂性远远不能满足实际应用的要求。例如Tan[2]开创了在没有任何额外信息的情况下在单图像实现去雾的可能性。He等[3]使用暗通道先验(dark channel prior, DCP)借助统计学来估计图像的雾霾以实现图像去雾。Zhu等[4]提出了颜色衰减先验,通过估计场景深度来消除雾霾。Berman等[5]观察到,无雾图像的颜色可以很好地近似为RGB空间中形成紧密簇的数百种不同颜色,然后基于这一先验知识提出了一种去雾算法。Chen等[6]提出了一种改进的评价彩色图像去雾效果的方法。该方法考虑了对图像边缘信息的评估以及对颜色失真的评估。

    最近,基于CNN的方法已被应用于图像去雾,并且与传统方法相比取得了显著的性能改进。早期的算法[7-9]使用可学习的参数代替传统框架中的某些模块或步骤(例如估计透射图或大气光),并使用外部数据来学习参数。从那时起,更多的研究使用端到端的数据驱动的方法来消除图像雾化[10-14]。例如,Cai等[7]提出了DehazeNet来生成端到端的传输图。Zhang等[15]将大气散射模型嵌入到网络中,允许CNNs同时输出传输图、大气光和去雾图像。GandelSman等[11]借助于图像先验知识提出了一种无监督的图像去雾方法。Chen等[16]在合成数据集中预先训练了去雾模型,之后使用无监督学习方法使用各种物理先验微调网络参数,以提高其在真实雾霾图像上的去雾性能。还有一系列研究放弃了传统的物理模型,并使用直接的端到端方法来生成去雾图像。Li等[8]设计了一个AOD网络,通过重新制定的大气散射模型直接生成去雾图像。Qu等[14]将去雾任务转换为图像到图像的转换任务,并增强了网络以进一步生成更逼真的无雾图像。尽管基于CNN的方法已经取得了最先进的结果,但它们通常需要堆叠更多的卷积层才能获得更好的性能,从而导致在资源受限的设备上计算成本过高。

    除此之外,基于MLP的方法已被应用于图像增强任务,例如图像超分辨率[17-18]、图像去噪[19]和图像去雨[20-21]。与CNN相比,这些方法在低运算量的基础上取得了更好的视觉效果。不幸的是,目前基于MLP的方法有2个主要限制。首先,上述方法将图像划分为多个块,以捕获图像上的全局感受野,导致图像像素之间的空间拓扑信息丢失;其次,图像去雾是一个高度不适定的问题,因此需要大量的MLP层或一些注意力机制来重建更好的高频细节。为此,这些结构和模块的大量堆叠会严重增加计算负担。例如,Uformer结构[22]只能使用24 GB RAM处理一张${\text{360}} \times {\text{360}}$分辨率的图像。

    针对上述存在的问题,本文提出了一种不带有图像补丁的全局和局部感知网络。其中,全局感知网络基于MLP-Mixer的设计原则,在多尺度框架中捕获图像的全局特征。此外,局部信息的抽取使用U-Net来捕捉图像的局部特征以弥补全局信息建模的不足。最后,通过融合全局和局部特征图生成一个高质量的系数张量,它用于输入图像的仿射变换。值得注意的是系数张量可以看作是一种注意力机制,它表示了带雾图像的局部区域应该有相似的变换。经过大量的实验分析表明,所提出的用于UHD图像去雾任务的全局感知网络具有两个优点:1)该模型能够有效地建模出图像的全局特性,同时保留了图像上的元素之间空间拓扑信息。2)全局特征和局部特征相辅相成,协同产生一张高质量的超高清去雾图像。本文算法有能力在单个24 GB RAM的RTX 3090上以110 f/s的速度处理一张4 k分辨率的图像,并实现最佳性能。值得注意的是该模型在4KID数据集中的峰值信噪比指标达到了26.99 dB。

    图1给出了4 k分辨率图像去雾网络的架构,该网络主要由两个分支网络组成,一个全局信息提取网络和另一个是局部信息提取网络。

    图  1  全局和局部感知网络框架
    Fig.  1  Framework of global and local aware network
    下载: 全尺寸图片

    传统的基于MLP的图像重构模型需要将图像分割成若干个块再进行特征抽取,这无疑会丢失图像的空间拓扑信息。灵感来自于MLP-Mixer的设计原则,本文设计了一个空间MLP混合器(spatial-MLP-mixer,SMM)。具体来说,SMM将完整的特征图$X$作为输入,其中特征图$X$的长度域,宽度域和通道域分别为$H$$W$$C$${\boldsymbol{X}} \in {{\bf{R}}^{(C \times H \times W)}}$。然后分别使用相同的投影矩阵和激活函数以“滚动的方式”对一张图像的宽度域、长度域和通道域进行非线性的投影。混合器块由尺寸相等的多层MLP组成,每层由3个MLP块组成。第1个块是图像的宽度混合MLP,它作用于${\boldsymbol{X}}$的行,映射${{\bf{R}}^W} \mapsto {{\bf{R}}^W}$,并在所有行之间共享。第2个块是图像的长度混合MLP,它作用于${\boldsymbol{X}}$的列(即它应用于转置的输入${{\boldsymbol{X}}^{\rm{T}}}$),映射${{\bf{R}}^H} \mapsto {{\bf{R}}^H}$,并在所有列之间共享。第3个块是图像的通道混合MLP:它作用于${\boldsymbol{X}}$的通道维度,映射${{\bf{R}}^C} \mapsto {{\bf{R}}^C}$,并在所有通道之间共享。每个MLP块包含两个完全连接层和一个独立应用于输入数据张量每个维度的非线性层。具体如下:

    $$ {Y_{*,*,i}} = {{\boldsymbol{X}}_{*,*,i}} + {\omega _2}{\rm{S}}({\omega_1}L{({\boldsymbol{X}})_{*,*,i}}),{\text{ }}i = 1,2,\cdots,W $$
    $$ {Z_{*,{\text{j,}}*}} = {Y_{*,{\text{j,}}*}} + {\omega_4}{\rm{S}}({\omega_3}L{({{Y}})_{*,{\text{j,}}*}}),{\text{ }}j = 1,2,\cdots,H $$
    $$ {U_{k,*{\text{,}}*}} = {Z_{k,*{\text{,}}*}} + {\omega_6}{\rm{S}}({\omega_5}L{({{Z}})_{k,*{\text{,}}*}}),{\text{ }}k = 1,2,\cdots,C $$

    其中:$L$表示层归一化,${\rm{S}}$是Sigmoid函数,$\omega$表示全连接层参数。该结构的整体复杂性在图像中的像素数上是线性的,这与ViT (vision transformer)不同,ViT的复杂性是二次的。SMM可以通过“滚动”提取图像的空间域信息进行长范围依赖建模以更好地恢复图像的颜色与纹理信息。

    除此之外,多尺度特性也被考虑。多尺度特性是空间MLP学习高分辨率(high resolution, HR)图像的高质量特征的关键。为了实现更多的跨分辨率特征交互,在SMM开始时以不同的尺度插入交叉分辨率特征信息。为了帮助低分辨率(low resolution, LR)特征保持更多图像细节和准确的位置信息,该算法把低分辨率特征与高分辨率特征融合。HR路径在LR路径中增加了更多的图像信息以减少信息损失,并增强了反向传播过程中的梯度流,以促进LR变换模块的训练。另一方面,将LR特征合并到HR路径中,以帮助模型获得具有更大感受野的抽象层次的特征。具体来说,该网络有3种规模(256、128和64)的多尺度SMM,框架与HRNet相同。它始终保持高分辨率表示,以获得空间准确的全局特征图。通过迭代融合由HR和LR子网络生成的特征来合成可靠的高分辨率特征。所有的图像下采样和上采样的方式都使用了双线性插值。

    为了进一步增强模型生成一张清晰的超高清去雾图像的能力,该模型引入了图像的局部信息提取网络。该网络首先将4 k分辨率带雾输入降低到${\text{256}} \times {\text{256}}$的固定分辨率(双线性插值的方法),然后由U-Net获取其局部特征图。U-Net添加了一个${\text{3}} \times {\text{3}}$卷积层,将解码器最后一层的通道数从64映射到3。局部提取模块通过堆叠卷积层和池化层,可以更好地关注图像中的局部信息关系以消除冗余的特征信息。

    此外,图像局部信息的抽取可以用于恢复清晰的边缘特征,这些特征可以通过依赖图像的短距离依赖进行恢复。如图2(b)所示,本地信息提取模块的输出图像具有更清晰的边缘。相比之下,图像的色彩信息不能仅根据该像素及其附近像素的色彩信息进行恢复,还需要考虑全局的长距离依赖才能正确恢复图像颜色。因此,通过SMM来提取图像的长距离依赖色彩空间信息,以更好地恢复图像颜色。如图2(a)所示,全局信息提取模块更侧重于图像的颜色特征。

    图  2  全局和局部分支归一化特征结果
    Fig.  2  Results of normalized output feature maps of the global and the local branches
    下载: 全尺寸图片

    在本节中,通过对合成数据集和真实世界图像进行实验来评估所提出的方法。将所有结果与9种先进的去雾方法进行比较:AOD[17]、PSD[16]、DCP[3]、CAP[4]、NL[5]、GCANet[23]、MGBL[1]、FDMHN[24]和PFFNet[25]。此外,还进行消融研究,以表明该网络在图像去雾任务上每个模块的有效性。

    为定量的评估去雾算法的表现,本文使用了峰值信噪比P和结构相似性H作为评估指标,其中K表示最大值,E表示方差。

    $$ P = 10 \cdot {\rm{lg}}\frac{{{{K}^2}}}{E} $$

    H表示干净图像与噪音图像之间的均方差。

    $$ H(x,y) = \dfrac{{(2{\mu _x}{\mu _y} + c)(2{\sigma _{xy}} + c)}}{{(\mu _x^2 + \mu _y^2 + c)(\sigma _x^2 + \sigma _y^2 + c)}} $$

    训练数据集总共包含13136张雾化/真实图像。它包括来自4KID的12861张包含建筑物、人物、车辆、道路等的图像和来自I-HAZE的25张室内场景图像和来自O-HAZE的40张室外场景图像进一步扩充了数据的多样性。相应地,实验对来自4Kdehaze的200张图像,来自I-HAZE的5张图像和来自O-HAZE的5张图像进行测试。

    该模型是使用PyTorch 1.7实现的,网络是使用AdamW优化器训练的。在这种情况下,一张分辨率为${\text{512}} \times {\text{512}}$的图像作为输入(输入到模型后会借助双线性插值被强行下采样到256×256的分辨率),并使用8的批量大小来训练网络。初始学习率设置为0.001。整个模型的使用了50轮次的训练。

    对于DCP,将窗口大小设置为${\text{60}} \times {\text{60}}$用于测试。对于去雾模型PSD,GCANet和FDMHN,它们分别在4KID、I-HAZE和O-HAZE数据集上进行微调。网络使用AdmaW优化器进行训练,学习率为0.0001。特别是对于PSD,本文使用作者提供的PSD-MSDBN模型系数进行微调。此外,对于AOD、PFFNet和MGBL,应用Adam优化器并将学习率设置为0.001以训练网络。对于去雾算法NL,灰度系数γ设置为1进行测试。

    所有方法都在3个数据集上进行评估,即4KID、O-HAZE和I-HAZE数据集。图3图4中给出了在4KID数据集中的一张分辨率为4 k的图像和I-HAZE数据集中的一张图像的对比结果。可以观察到,传统的基于物理的方法(NL、DCP、CAP)倾向于过度增强结果,导致颜色失真。最近的深度模型(GCANet、FDMHN、AOD、PFFNet、MGBL)由于缺乏全局建模能力,结果中仍然存在一些模糊。虽然PSD的结构相似性优于本文算法,但局部与全局感知网络可以更快地处理分辨率为4 k的图像并获得更好的色彩结果。图3(k)、4(k)中局部与全局感知网络法生成的去雾结果接近图3(l)、4(l)中的真实无雾图像。表1表明了本文方法的有效性。同时,在同一台具有NVIDIA 24GB RAM RTX 3090 GPU的机器上评估所有深度模型。运行时只是GPU的处理时间,不考虑I/O操作。4KID、I-HAZE和O-HAZE数据集的平均运行时间如表1所示。传统方法(NL、DCP、CAP)需要解决复杂的函数,这不可避免地增加了计算成本。虽然一些轻量级网络(FDMHN、AOD、PFFNet、MGBL)可以实时消除分辨率为4 k的图像的雾霾,但它们的性能不如本文模型。此外,虽然一些大型网络(GCANet、PSD)实现了更好的性能,但它们无法实时去除单个分辨率为4 k的图像的雾霾。

    图  3  4KID数据集上的测试结果
    Fig.  3  Dehazed results on the 4KID test dataset
    下载: 全尺寸图片
    图  4  在I-HAZE数据集上的测试结果
    Fig.  4  Dehazed results on the I-HAZE dataset
    下载: 全尺寸图片
    表  1  4KID、I-HAZE和O-HAZE数据集上的定量评估
    Table  1  Quantitative evaluation of the 4KID, I-HAZE and O-HAZE datasets
    数据集指标输入AODCAPDCPFDMHNGCANetMGBLNLPFFNetPSD本文算法

    4KID
    峰值信噪比/dB10.8714.3412.3815.2117.8315.3822.9713.8315.6923.1926.99
    结构相似性0.75060.80590.72690.84000.88780.84980.89550.80840.85800.93910.9000
    时间1 ms6 s3 s20 ms1 s9 ms22 s13 ms382 ms9 ms

    O-HAZE
    峰值信噪比/dB13.3618.0915.2016.5718.5516.3519.2614.6517.6619.7720.54
    结构相似性0.71090.77200.62410.77120.77300.72530.81790.66620.74530.82380.8108
    时间5 ms9 s5 s20 ms2 s16 ms38 s19 ms2 s13 ms

    I-HAZE
    峰值信噪比/dB15.5015.5511.7411.5515.4912.2516.7512.1815.1316.4119.32
    结构相似性0.81810.82710.54130.67100.71350.74470.80160.67880.77020.83520.8848
    时间2 ms9 s4 s19 ms2 s17 ms55 s16 ms602 ms14 ms

    然后,在真实世界的带雾图像上评估所提出的算法。首先,在真实捕获的4 k分辨率带雾图像上与不同的先进方法进行比较。图5给出了两张具有挑战性的真实世界图像的结果的定性比较。如图所示,DCP使去雾结果中的某些区域变暗,CAP和PSD遭受颜色失真,而AOD、GCANet、MGBL、FDMHN和PFFNet生成的结果有一些残留的雾霾。相比之下,本文算法能够生成逼真的颜色,同时更好地消除雾霾,如图5(j)所示。

    图  5  在真实4 k分辨率图像上的去雾结果
    Fig.  5  Dehazed results on real-world 4 k resolution images
    下载: 全尺寸图片

    除了4 k分辨率图像,在其他公共数据库下载的几个低分辨率带雾图像上评估了超高清去雾算法与其他的对比方法。去雾结果如图6所示。可以看出,除本文之外的所有型号都存在颜色失真。相反,本文方法可以更好地消除雾霾并有效地产生逼真的色彩。

    图  6  在低分辨率图像上的去雾结果
    Fig.  6  Dehazed results on low-resolution hazy images of real-world
    下载: 全尺寸图片

    为了检验SMM的有效性,全局与局部网络还与SwinIR[19]和MLP-Mixer[26]进行了比较。所有3个模型应用大致相同数量的参数。SwinIR和MLP-Mixer都需要将图像分割成块,导致空间拓扑信息的丢失和模型的图像增强能力的降低。此外,SwinIR对Transformer的使用增加了其计算能力但减慢了模型的速度。如图7所示,MLP混合器产生了模糊的结果,图像中存在可见的斑块,而SwinIR的输出不能完全消除雾霾,并且存在颜色失真。但是,本文提出的SMM能够更好恢复纹理和颜色。值得注意的是,对于大致相同数量的参数,SMM是最快的,而SwinIR是最慢的。

    图  7  空间MLP混合器、MLP混合器以及SwinIR效果对比
    Fig.  7  The results of spatial MLP-mixer, MLP-mixer and SwinIR
    下载: 全尺寸图片

    为了表明所提出的网络中引入的每个模块的有效性,进行了一项消融研究,涉及以下3个实验:全局分支的有效性,该模型移除了全局特征提取分支并直接回归图像以获得最终输出;局部分支的有效性,该模型移除UNet,直接将图像回归到多尺度空间MLP混合器中,以获得最终结果;多尺度的有效性,比较了分别使用单一尺度和两个尺度的效果,同时保持相同数量的参数。

    表2图8所示,局部分支依靠图像的局部特征,在两个指标上取得了较好的结果,但其颜色恢复能力仍然不足。仅使用全局分支并不能给出令人满意的结果,但其更好地提取全局信息的能力可以增强局部分支对图像颜色的恢复。值得注意的是,对不同尺度的SMM进行消融实验时,该模型为单尺度和双尺度SMM堆叠了更多的MLP层,以达到与多尺度SMM相似数量的参数。显然,出色的多尺度性能是由于多分辨率图像提供的丰富细节。

    表  2  全局分支、局部分支以及多尺度的消融实验
    Table  2  Ablation studies of global branch, local branch and multi-scale
    方法峰值信噪比/dB结构相似性
    全局分支18.610.8022
    局部分支22.820.8445
    单尺度SMM25.770.8498
    双尺度SMM26.030.8977
    本文26.990.9000
    图  8  在低分辨率图像上的消融结果
    Fig.  8  Dehazed results on low-resolution hazy images
    下载: 全尺寸图片

    本文提出了一种具有全局和局部感知的超高清分辨率图像去雾的新模型。该模型的关键是使用全局特征提取分支的空间MLP混合器。空间MLP混合器可以帮助模型从超高清分辨率的 (4 k)图像中恢复颜色特征。使用局部特征分支来恢复高质量的细节特征,为图像去雾提供丰富的纹理信息。定量和定性结果表明,该网络在准确性和推理速度方面与先进的去雾方法相比更好,并在真实世界的4 k雾霾图像上产生了视觉上令人满意的结果。

  • 图  1   全局和局部感知网络框架

    Fig.  1   Framework of global and local aware network

    下载: 全尺寸图片

    图  2   全局和局部分支归一化特征结果

    Fig.  2   Results of normalized output feature maps of the global and the local branches

    下载: 全尺寸图片

    图  3   4KID数据集上的测试结果

    Fig.  3   Dehazed results on the 4KID test dataset

    下载: 全尺寸图片

    图  4   在I-HAZE数据集上的测试结果

    Fig.  4   Dehazed results on the I-HAZE dataset

    下载: 全尺寸图片

    图  5   在真实4 k分辨率图像上的去雾结果

    Fig.  5   Dehazed results on real-world 4 k resolution images

    下载: 全尺寸图片

    图  6   在低分辨率图像上的去雾结果

    Fig.  6   Dehazed results on low-resolution hazy images of real-world

    下载: 全尺寸图片

    图  7   空间MLP混合器、MLP混合器以及SwinIR效果对比

    Fig.  7   The results of spatial MLP-mixer, MLP-mixer and SwinIR

    下载: 全尺寸图片

    图  8   在低分辨率图像上的消融结果

    Fig.  8   Dehazed results on low-resolution hazy images

    下载: 全尺寸图片

    表  1   4KID、I-HAZE和O-HAZE数据集上的定量评估

    Table  1   Quantitative evaluation of the 4KID, I-HAZE and O-HAZE datasets

    数据集指标输入AODCAPDCPFDMHNGCANetMGBLNLPFFNetPSD本文算法

    4KID
    峰值信噪比/dB10.8714.3412.3815.2117.8315.3822.9713.8315.6923.1926.99
    结构相似性0.75060.80590.72690.84000.88780.84980.89550.80840.85800.93910.9000
    时间1 ms6 s3 s20 ms1 s9 ms22 s13 ms382 ms9 ms

    O-HAZE
    峰值信噪比/dB13.3618.0915.2016.5718.5516.3519.2614.6517.6619.7720.54
    结构相似性0.71090.77200.62410.77120.77300.72530.81790.66620.74530.82380.8108
    时间5 ms9 s5 s20 ms2 s16 ms38 s19 ms2 s13 ms

    I-HAZE
    峰值信噪比/dB15.5015.5511.7411.5515.4912.2516.7512.1815.1316.4119.32
    结构相似性0.81810.82710.54130.67100.71350.74470.80160.67880.77020.83520.8848
    时间2 ms9 s4 s19 ms2 s17 ms55 s16 ms602 ms14 ms

    表  2   全局分支、局部分支以及多尺度的消融实验

    Table  2   Ablation studies of global branch, local branch and multi-scale

    方法峰值信噪比/dB结构相似性
    全局分支18.610.8022
    局部分支22.820.8445
    单尺度SMM25.770.8498
    双尺度SMM26.030.8977
    本文26.990.9000
  • [1] ZHENG Zhuoran, REN Wenqi, CAO Xiaochun, et al. Ultra-high-definition image dehazing via multi-guided bilateral learning[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 16180−16189.
    [2] TAN R T. Visibility in bad weather from a single image[C]//2008 IEEE Conference on Computer Vision and Pattern Recognition. Anchorage: IEEE, 2008: 1−8.
    [3] HE Kaiming, SUN Jian, TANG Xiaoou. Single image haze removal using dark channel prior[J]. IEEE transactions on pattern analysis and machine intelligence, 2011, 33(12): 2341–2353. doi: 10.1109/TPAMI.2010.168
    [4] ZHU Qingsong, MAI Jiaming, SHAO Ling. A fast single image haze removal algorithm using color attenuation prior[J]. IEEE transactions on image processing:a publication of the IEEE signal processing society, 2015, 24(11): 3522–3533. doi: 10.1109/TIP.2015.2446191
    [5] BERMAN D, TREIBITZ T, AVIDAN S. Non-local image dehazing[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 1674−1682.
    [6] 陈珂, 柯文德, 许波, 等. 改进的彩色图像去雾效果评价方法[J]. 智能系统学报, 2015, 10(5): 803–809. doi: 10.11992/tis.201406003

    CHEN Ke, KE Wende, XU Bo, et al. An improved assessment method for the color image defogging effect[J]. CAAI transactions on intelligent systems, 2015, 10(5): 803–809. doi: 10.11992/tis.201406003
    [7] CAI Bolun, XU Xiangmin, JIA Kui, et al. DehazeNet: an end-to-end system for single image haze removal[J]. IEEE transactions on image processing:a publication of the IEEE signal processing society, 2016, 25(11): 5187–5198. doi: 10.1109/TIP.2016.2598681
    [8] LI Boyi, PENG Xiulian, WANG Zhangyang, et al. AOD-net: all-in-one dehazing network[C]//2017 IEEE International Conference on Computer Vision. Venice: IEEE, 2017: 4780−4788.
    [9] REN Wenqi, PAN Jinshan, ZHANG Hua, et al. Single image dehazing via multi-scale convolutional neural networks with holistic edges[J]. International journal of computer vision, 2020, 128(1): 240–259. doi: 10.1007/s11263-019-01235-8
    [10] DENG Zijun, ZHU Lei, HU Xiaowei, et al. Deep multi-model fusion for single-image dehazing[C]//2019 IEEE/CVF International Conference on Computer Vision. Seoul: IEEE, 2020: 2453−2462.
    [11] GANDELSMAN Y, SHOCHER A, IRANI M. “double-DIP”: unsupervised image decomposition via coupled deep-image-priors[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2020: 11018−11027.
    [12] HONG Ming, XIE Yuan, LI Cuihua, et al. Distilling image dehazing with heterogeneous task imitation[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 3459−3468.
    [13] LI Runde, PAN Jinshan, LI Zechao, et al. Single image dehazing via conditional generative adversarial network[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 8202−8211.
    [14] QU Yanyun, CHEN Yizi, HUANG Jingying, et al. Enhanced Pix2pix dehazing network[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2020: 8152−8160.
    [15] ZHANG He, PATEL V M. Densely connected pyramid dehazing network[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 3194−3203.
    [16] CHEN Zeyuan, WANG Yangchao, YANG Yang, et al. PSD: principled synthetic-to-real dehazing guided by physical priors[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 7176−7185.
    [17] LIANG Jingyun, CAO Jiezhang, SUN Guolei, et al. SwinIR: image restoration using swin transformer[C]//2021 IEEE/CVF International Conference on Computer Vision Workshops. Montreal: IEEE, 2021: 1833−1844.
    [18] YANG Fuzhi, YANG Huan, FU Jianlong, et al. Learning texture transformer network for image super-resolution[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 5790−5799.
    [19] LUTHRA A, SULAKHE H, MITTAL T, et al. Eformer: edge enhancement based transformer for medical image denoising[EB/OL]. (2021−09−06)[2023−04−07]. https://arxiv.org/abs/2109.08044.
    [20] CHEN Hanting, WANG Yunhe, GUO Tianyu, et al. Pre-trained image processing transformer[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 12294−12305.
    [21] CHEN Xiang, LI Hao, LI Mingqiang, et al. Learning A sparse transformer network for effective image deraining[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver: IEEE, 2023: 5896−5905.
    [22] WANG Zhendong, CUN Xiaodong, BAO Jianmin, et al. Uformer: a general U-shaped transformer for image restoration[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022: 17662−17672.
    [23] CHEN Dongdong, HE Mingming, FAN Qingnan, et al. Gated context aggregation network for image dehazing and deraining[C]//2019 IEEE Winter Conference on Applications of Computer Vision. Waikoloa: IEEE, 2019: 1375−1383.
    [24] DAS S D, DUTTA S. Fast deep multi-patch hierarchical network for nonhomogeneous image dehazing[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Seattle: IEEE, 2020: 1994−2001.
    [25] MEI Kangfu, JIANG Aiwen, LI Juncheng, et al. Progressive feature fusion network for realistic image dehazing[C]//Asian Conference on Computer Vision. Cham: Springer, 2019: 203−215.
    [26] TOLSTIKHIN I, HOULSBY N, KOLESNIKOV A, et al. MLP-mixer: an all-MLP architecture for vision[EB/OL]. (2021−05−30)[2023−04−07]. https://arxiv.org/abs/2105.01601.pdf.
WeChat 点击查看大图
图(8)  /  表(2)
出版历程
  • 收稿日期:  2023-04-07
  • 网络出版日期:  2023-08-01

目录

    /

    返回文章
    返回