融合递归自编解码器的蒙卡画面重构降噪方法

卢娟 陈纯毅

卢娟, 陈纯毅. 融合递归自编解码器的蒙卡画面重构降噪方法 [J]. 智能系统学报, 2023, 18(3): 459-467. doi: 10.11992/tis.202112011
引用本文: 卢娟, 陈纯毅. 融合递归自编解码器的蒙卡画面重构降噪方法 [J]. 智能系统学报, 2023, 18(3): 459-467. doi: 10.11992/tis.202112011
LU Juan, CHEN Chunyi. A denoised method by fusing recursive auto-encoder decorder for Monte Carlo rendering image reconstruction [J]. CAAI Transactions on Intelligent Systems, 2023, 18(3): 459-467. doi: 10.11992/tis.202112011
Citation: LU Juan, CHEN Chunyi. A denoised method by fusing recursive auto-encoder decorder for Monte Carlo rendering image reconstruction [J]. CAAI Transactions on Intelligent Systems, 2023, 18(3): 459-467. doi: 10.11992/tis.202112011

融合递归自编解码器的蒙卡画面重构降噪方法

doi: 10.11992/tis.202112011
基金项目: 吉林省科技发展计划项目(20190302113GX).
详细信息
    作者简介:

    卢娟,硕士研究生,主要研究方向为深度学习、图像降噪;

    陈纯毅,教授,博士生导师,博士,中国图象图形学学会虚拟现实专委会委员、中国计算机学会会员。主要研究方向为虚拟现实、特种电影和光电系统仿真;承担过国家自然科学基金、国家重点研发计划、国家科技支撑计划、863计划、973计划等国家高层次项目,发表学术论文60余篇.

    通讯作者:

    陈纯毅. E-mail: 2306915844@qq.com.

  • 中图分类号: TP183

A denoised method by fusing recursive auto-encoder decorder for Monte Carlo rendering image reconstruction

  • 摘要: 针对生成对抗模型降噪结果出现的伪影和模糊问题,提出一种基于对抗生成递归自编码器的蒙卡渲染画面降噪方法。在模型上,设计多尺度卷积编码结构,以多尺度残差自编码模型为生成器,通过组合连接实现不同层次特征提取,融合不同感受野的特征信息。以设计的递归残差网络模型为判别器,判断蒙卡渲染画面真伪,在对抗中提高网络性能。以端到端的方式将辅助信息特征、含有噪声的蒙卡画面和8192采样率下的画面输入到融合递归自编解码器中进行降噪处理。实验表明,该方法在测试场景下的平均峰值信噪比为32.44 dB,比生成对抗网络方法和残差网络方法分别提升4.80%和3.13%;平均结构相似性为0.92,比2种已有的算法分别提高2.54%和1.01%。

     

    Abstract: Aiming at the problem of artifacts and blurring in the noise reduction results of generative adversarial model, a noise reduction method for Monte Carlo rendering image based on generative adversarial recurrent auto-encoder is proposed in this paper. On the model, the multi-scale convolutional coding structure is designed, and the multi-scale residual auto-encoder model is used as the generator. The feature extraction at different levels is realized by combination connection, fusing the feature information of different receptive fields. The designed recursive residual network model is used as the discriminator to judge the authenticity of the Monte Carlo rendering picture and improve the network performance in the confrontation. In an end-to-end way, the auxiliary information features, the noise-containing Monte Carlo pictures and the pictures with the sampling rate of 8192 are input into the recursive auto-encoder decoder for noise reduction. Experiments show that the average peak signal-to-noise ratio of this method is 32.44 dB in the test scenario, which is 4.80% and 3.13% higher than the generative adversarial network method and the residual network method, respectively. The average structural similarity is 0.92, which is 2.54 % and 1.01 % higher than the existing two algorithms, respectively.

     

  • 随着图形渲染软件硬件的发展,光线追踪技术逐渐在计算机辅助设计、动画电影制作、图形可视化显示等领域崭露头角。针对蒙特卡罗三维渲染画面噪声的解决方法有2种:第1种是通过重要性采样对蒙特卡罗样本进行近似,加快蒙特卡罗收敛速率,如Lehtinen等[1]提出利用图像梯度的Metropolis 光线跟踪算法, 通过直接计算图像梯度值,求解 Poisson方程来重建图像。第2种方法是对蒙特卡罗渲染的画面进行重构降噪,如Rousselle等[2]提出基于非局部均值滤波(non-local means, NLM)的去噪算法,该方法利用真实图像和噪声图像滤波系数的相关性,进行自适应滤波。

    基于像素的蒙特卡罗深度学习降噪方法主要分为基于预测滤波参数的降噪方法、基于内核预测的降噪方法和基于像素值预测的降噪方法。Kalantari等[3]利用滤波器的权重和蒙卡渲染画面噪声之间的关系,设计的一种基于滤波核的网络模型,该模型基于多层感知机模型(multi-layer perceptron,MLP)方法对画面进行降噪,当训练完成后会根据已有的场景滤波参数来对其他场景进行降噪。该方法使用固定的滤波器作为后端处理,但也继承了固有滤波器带来的限制。Meng等[4]采用参数估计网络来解决路径跟踪的噪声伪影问题,该方法包括采样和重建阶段,重建阶段采用改进的MLP网络,利用提取的特征预测最终图像各向异性滤波器的最佳重建参数。

    Chaitanya等[5]提出循环自编码器的降噪方法,该网络结构为对称循环自编码网络结构,同时采用跳跃结构连接解码层,目的是为保留更多高频特征,该网络模型主要降噪对象为交互渲染场景画面,同时利用粗糙度特征进行降噪;但该方法主要针对时间序列关联度较高的图像降噪效果显著。谢川等[6]研究了深度自编码网络降噪方法,该网络模型使用对称跳跃连接的自编码器作为生成模型,并使用深度卷积网络作为判别模型来处理低采样下渲染的噪声数据,但该方法不针对运动模糊场景。Vogels等[7]提出基于核预测的卷积网络模型,该方法利用源编码器和特征提取空间对辅助信息进行预处理,该方法使用源感知编码器提取低级特征,以及使用空间和时间模块提取抽象的高级特征。Wong等[8]提出基于残差网络去除蒙卡画面中的噪声,该方法通过加深网络深度的方式对蒙卡画面进行降噪,可能会丢失过多的细节,导致画面过度平滑,同时也会出现过拟合和训练困难等问题。Xu等[9]提出利用生成对抗网络模型进行降噪,该方法将含有噪声的RGB图像分离为镜面反射图像(diffuse)和高光图像(specular),同时输入辅助信息作为网络训练的数据,增加编解码器进行预处理,最后通过判别网络对编码网络的参数进行监督和训练获得重构后的噪声图像,该方法首次将分离的镜面和漫反射特征进行单独处理。

    针对U-Net自编码网络模型处理RGB和辅助信息时会出现伪影和过模糊现象;同时端到端结构提取的图像特征会随着网络深度的变化而发生变化,导致提取特征的能力受限。本文提出一种基于对抗生成递归自编码器的蒙卡渲染画面降噪方法,在结果上能明显优于端到端的对抗生成模型,在降噪能力上也明显高于U-Net模型。

    机器学习降噪方法是将含有噪声的画面和参考画面输入到网络中学习,从而得到最优网络模型进行去噪,其原理表示为[10-11]

    $$ {\boldsymbol{\theta}} ' = \mathop {\arg \min }\limits_\theta \frac{1}{N}\sum\limits_{n = 1}^N {\ell \left( {{{\boldsymbol{r}}^n},g\left( {{{\boldsymbol{X}}^n},{\boldsymbol{\theta}} } \right)} \right)} $$

    式中:θ是降噪网络模型权重, $({\boldsymbol{X}}^1,{\boldsymbol{r}}^1),{\boldsymbol{X}}^2,{\boldsymbol{r}}^2),\cdots, ({\boldsymbol{X}}^N,{\boldsymbol{r}}^N)$ 表示是N个训练样本, ${\boldsymbol{r}}^n $ 表示参考画面;通过模型预测得到 $g({\boldsymbol{X}}^n, {\boldsymbol{\theta}})$ $ \ell ( \cdot ) $ 表示损失函数。网络模型中使用的辅助信息包含深度、法向量和反照率等。本文网络模型为降噪自编码网络和递归网络模型,自编码网络采用编码函数和解码函数映射的方法得到初始的降噪画面,利用蒙卡噪声画面和辅助信息训练网络模型。如图1所示,上述框架第1部分采用U-Net网络,框架第2部分采用深度递归级联卷积神经网络。将含有噪声的渲染画面和辅助信息作为模型输入,利用编码函数提取高层特征,解码函数将特征图映射至输出层,得到输出重构画面。将上述结果和噪声图像进行融合,将其输入到递归级联卷积神经网络模型,进行训练。基于U-Net编解码模型中存在如下问题:

    图  1  融合递归自编码模型框架
    Fig.  1  Frame of fusion recursive auto-encoder model
    下载: 全尺寸图片

    1)当训练样本不足或场景信息丢失较严重时,模型无法根据特征信息进行画面还原,画面重构效果较差。

    2)在进行深层次特征提取后采样时,容易丢失边缘等重要的特征,采样过程会导致信息的完整性低等问题,重构效果不明显。

    3)在解码层使用上采样还原图像时,在还原画面时会出现细节的缺失,会引起还原的画面信息丢失,导致画面出现模糊等问题。

    4)深度残差网络中参数过多会导致拟合困难,同时也会降噪后出现过平滑等问题。

    本文针对上述问题进行多尺度卷积,将特征信息进行融合,提升画面信息质量;针对池化过程出现的细节损失问题,采用联合最大池化层(maxpool)和平均池化(avgpool)的方法,进行空间维度的压缩,并采用全连接层将2个池化层进行连接,通过该方法来调节权重;在解码层使用反卷积代替上采样,减少图像还原时的细节丢失,同时增加skip跳跃连接的方式来保留画面细节。将深度残差网络模型改为递归残差模型来提升网络表达能力。

    在深度残差网络模型[12]中,往往采用加深网络深度的方法解决降噪问题,该方法网络参数和网络表达能力难以平衡,但引入递归结构可以很好的解决这个问题。本文改进深度残差网络,改进后的递归结构模包含多个卷积层和LReLU激活函数,在递归模型重复调用的次数设为T,若将一个递归结构表示为映射函数GM(∙),第t次到第t+1次的递归表示:

    $$ {F_{t + 1}} = {G_M}\left( {{F_t}} \right) $$

    式中:Ft表示第t次输入递归结构的特征图,将重复T次的递归结构展开,使多个网络层共享权值,能够获得较好的网络表达能力,同时减少网络参数的数量。

    整个模型是由多个模块级联而成,每个模块包含一个递归卷积神经单元(recursive CNN unit,RCU)。如图2(a)所示,在级联卷积神经网络之间采集到输入的特征图后,更新每个卷积神经网络单元的输出特征。每个卷积层的卷积核大小为3×3,在每个CNN单元,每层的输出通道数为64,网络使用LeakyReLU激活函数,进行非线性激活。递归残差块结构如图2(b)所示。递归模型的收敛速率较快,经过T次递归操作,对含有噪声的画面进行降噪处理,输出降噪后的画面。

    图  2  递归网络结构
    Fig.  2  Recursive network structure
    下载: 全尺寸图片

    为提高U-Net自编码网络模型泛化能力,将U-Net模型分为编码层、残差块层和解码层[13-14]。网络具有的优点是:网络结构能对不同的蒙特卡罗画面具有普适性,对蒙特卡罗渲染画面还原度高。

    1)编码层Encoder

    ①如图3(a)所示,第1层编码器由2个不同尺度卷积层,1个池化层、标准化层和1个ReLU激活层构成。第1层卷积层为3×3×32,第2层卷积层为1×1×64,采用多尺度卷积操作,有助于多个卷积核提取图像不同尺寸的信息,将提取的信息进行融合,可获得更好的表征。池化层采用联合池化和平均池化的方式,进行空间维度压缩,并采用全连接层将2个池化层进行连接,池化层大小为2×2和卷积层2×2×64,stride设置为1。每层后加入批归一化,使用激活层采用ReLU函数防止梯度消失,最后由Concat层进行连接。经过编码块输出的第一层通道数为64。

    图  3  递归残差块结构
    Fig.  3  Recursive residual block structure
    下载: 全尺寸图片

    ②第2~4层编码层均设有2个不同尺度的卷积层、1个池化层、1个批归一化层和ReLU激活层。第2个编码块的卷积层分别为3×3×64和1×1×128,经过第2个编码块的通道数为128。第3个编码块的卷积层分别为3×3×128和1×1×256,第3层编码块的总通道数为256。第4层编码块为3×3×256和1×1×512,总通道数为512。池化层的大小为3×3,滑动步长设为1。

    2)残差结构(resblock)[15]

    图3(b)所示,在自编码器中增加残差块进行权重共享,每个残差块由2个卷积层为3×3×512、正则化和ReLU激活层组成。每个残差块输出的通道数为512,滑动步长设置为1。每层后加入批归一化,使用激活层采用ReLU函数防止梯度消失,最后由Concat层进行连接。

    3)解码层Decoder

    ①解码器对画面进行还原,通过skip的方式进行特征信息的保留。解码层往往采用反卷积的方式对空间维度进行还原,采用skip跳跃连接的方式进行权重信息共享,提升网络细节保留的能力,卷积层设定为2×2×512,滑动步长设定为2,通道数为512,加入实例归一化和ReLU激活函数。该方法能够有效的进行特征信息的融合,提升降噪的质量。

    ②在第2~4层的解码块中,反卷积大小分别为2×2×256、2×2×128和2×2×64,最后使用SoftMax进行输出。使用反卷积实现上采样层,使用上采样层将解码层的图像进行还原,将图像恢复到原尺寸。

    自编码网络因输入的噪声带有不同特性,特征提取时容易忽略浅层特征;利用噪声画面和辅助信息重构画面时会导致降噪效果较差。综上所述,在U-Net自编码网络模型上,增加多尺度卷积和联合最大池化和平均池化来保证信息的完整度,在反卷积前增加残差块进行参数共享。在解码层使用反卷积代替上采样,减少图像还原时的细节丢失。

    在使用蒙卡路径追踪算法渲染三维场景时,需要从相机出发记录每一条光线。当渲染时记录光线第1次与三维模型相交的信息时,将该信息保存到几何缓冲区(G-buffer),其保存的信息为相交点所在的材质等信息(法向量、反射率、深度等信息)。

    图4所示,本文参考文献[9]的辅助信息选择,采用反射率(3维),深度(1维)和法向量(3维),加上画面本身颜色(3维)总共10维的输入特征。对于深度信息,将其归一化为[0,1],通过输出结果证明加入辅助信息对重构画面的有效性,场景bathroom、classroom、cars、room3和staircase的辅助信息[16-17]

    图  4  辅助信息示例
    Fig.  4  Exemplary diagram of auxiliary information
    下载: 全尺寸图片

    网络模型的输出结果应和相应的参考图像相似。本文采用自编码器常用损失函数[18],同时加入梯度函数[19]以及损失函数LGAN[20-21]

    $$ \min _{G} \;\max _{D} L_{{\rm{G A N}}}(G, D) $$

    优化过程会求解D的参数值,使LGAN达到最大,然后固定D求解G使得LGAN达到最小,其公式为[21]

    $$ {G^*} = \arg \;{\min _G}\;{\max _D}{L_{{\rm{GAN}}}}(G,D) $$

    式中:G*表示生成器具有降噪图像的模型参数,当D最大时,会使得G*具有合理的模型参数。LGAN(G,D)可写为[20]

    $$ L_{{\rm{GAN}}}(G, D)=E_{X-{P_{X}}}[\ln D(X)]+E_{r-{P_r}}[\ln (1-D(G(r)))] $$

    式中: $ E_{X-{P_{X}}} $ 表示参考图像样本的期望; $ E_{r-{P_{r}}} $ 指生成图像样本的期望。总损失函数Ltotal

    $$ {L_{{\rm{total}}}} = {\lambda _1}{L_H} + {\lambda _2}{L_t} + {\lambda _3}{L_{{\rm{GAN}}}} $$

    其中,LH为对称绝对比误差损失,Lt为像素损失,λ1λ2λ3为平衡参数。通过上述损失函数使整个网络协同工作,提升最后降噪的质量。

    本实验分别在8个场景数据集上进行训练和测试,验证集为公开的迪士尼场景以及PBRT渲染数据集。

    训练数据集为迪士尼数据集,使用了8个场景,分别是bathroom、car、classroom、house、dining-room、bedroom、spaceship和staircase。如图5所示,该数据集共含有1 482幅多通道高分辨渲染图,每幅画面的分辨率均为1280×720,其中含有噪声的渲染画面的像素采样数分别为256、512、1024和4096,参考画面的像素采样数为8192。

    图  5  数据集
    Fig.  5  Datasets
    下载: 全尺寸图片

    本实验选用car、classroom、staircase 、dining、bedroom和spaceship共6个场景作为训练数据集,参考画面的采样数为8192。测试数据集为公开数据集中的bathroom、house和PBRT渲染场景中的classroom、room3和car2。由于每个测试场景的像素采样数不同,本文将对公开数据集中的bathroom、house(采样数为512)和PBRT渲染的场景画面进行分析。实验环境如表1所示。

    表  1  实验环境
    Table  1  Experimental environment
    实验环境 参数
    设备型号 Think Station P920
    操作系统 Ubuntu 18.06版本
    CPU处理器 Intel Xeon Gold 5120T CPU 2.2 GHz x56
    GPU NVIDA Quadro P5000
    机器学习环境 Pytorch
    CUDA版本 V10.0
    语言环境 Python,C++

    本文用峰值信噪比(peak signal to noise ratio, PSNR)[22]和结构相似度(structural similarity, SSIM)[23]作为蒙特卡罗渲染降噪结果的客观评价量化指标。PSNR对噪声敏感,它是基于均方误差的重构误差指标。一般地,当PSNR大于28时,画面质量差别不会太明显,在35~40时,人眼几乎分辨不出明显差异。SSIM以每个像素为中心的小块为单位进行对比,SSIM的取值范围为[0,1],SSIM值越高表示降噪画面质量越高。PSNR定义为[22]

    $$ R_{{\rm{PSN}}} = 10\lg \left( {\frac{{{{\left( {{2^n} - 1} \right)}^2}}}{M}} \right) $$

    式中:n为8,M为真实图像和降噪后图像均方误差。SSIM定义为[23]

    $$ R_{{\rm{SS}}}= \frac{{\left( {2{\mu _x}{\mu _y} + {C_1}} \right)\left( {2{\sigma _{xy}} + {C_2}} \right)}}{{\left( {\mu _x^2 + \mu _y^2 + {C_1}} \right)\left( {\sigma _x^2 + \sigma _y^2 + {C_2}} \right)}} $$

    式中:μxμy表示图像的灰度平均值,σxy表示2幅图像的协方差;σxσy表示图像的标准差,C1=6.502 5,C2=58.522 5。

    为提高网络的泛化能力,使网络具有更高的鲁棒性,本文采用迪士尼蒙特卡罗渲染数据集进行网络模型训练。本文网络模型将与深度残差网络模型和对抗生成网络模型在视觉效果、PSNR和SSIM 3个方面进行对比。本实验使用的批处理(batch)大小为5,总共训练迭代次数为100,学习率为10−4,训练时间约为6 h,在训练过程中针对损失函数来预定义权重系数,预定义权重系数为1.0。

    本文对不含递归结构的自编码器网络进行消融实验分析,将含噪声的渲染画面和辅助信息输入到自编码网络中训练。选择的消融实验的场景画面为bathroom,视觉效果如图6所示,不含递归结构的自编码网络降噪效果低于含有递归结构的自编码网络。

    图  6  消融实验结果
    Fig.  6  Results of ablation experiments
    下载: 全尺寸图片

    在降噪速度上,不含递归结构的自编码网络处理速度较快,算法的复杂度较低。不含递归结构和含递归结构的PSNR分别为24.553 9 dB和27.913 2 dB,SSIM值分别为0.796 6和0.861 5。就计算效率而言,含递归的网络模型时间复杂度更高。

    深度学习对噪声画面进行降噪时,需要考虑训练模型是否存在欠拟合或过拟合等问题,而误差曲线能够更好地反应这一问题。图7给出了递归网络模型进行训练时的PSNR随迭代次数变化曲线,随着epoch数的增加,训练误差和验证误差均收敛,当迭代到100时,PSNR收敛为29.5 dB左右,说明模型训练结果合理。

    图  7  收敛曲线
    Fig.  7  Diagram of convergence curves
    下载: 全尺寸图片

    为更加客观地分析本文模型对比其他模型的降噪效果,本文选取对比的算法为基于残差网络模型和基于U-Net为基础的网络模型,分别为文献[8]和文献[9],选用场景为classroom、room3、house、和car2,降噪后的视觉效果为图8所示。文献[8]在重构时,池化和上采样过程会造成像素等重要信息丢失,导致画面产生伪影,而文献[9]对画面进行全局信息的保留,忽略了局部细节,本方法主要是在画面重构时减少重构时的像素损失和对噪声画面进行重构,在细节保留上能够比文献[8]和文献[9]效果好,同时加速网络收敛,得到更高的视觉效果。

    图  8  降噪后视觉效果
    Fig.  8  Visual effect after performing deniosing
    下载: 全尺寸图片

    本文选取的测试场景分别为迪士尼数据和PBRT渲染的画面。其中,表2为降噪后蒙特卡罗渲染画面的PSNR值,表3为降噪后的蒙特卡罗渲染的SSIM值,根据表2表3的PSNR和SSIM进行分析得出,降噪后画面的PSNR和SSIM值相对于文献[8]和文献[9]得到一定提升,说明本文的降噪算法效果优于文献[8]和文献[9]的方法。

    表  2  不同方法和场景的平均PSNR评价指标
    Table  2  Average PSNR evaluation index value under different methods and scenes
    场景 文献[8] 文献[9] 本文
    staircase 30.9955 32.4319 32.6743
    bathroom 25.2087 25.5627 27.9132
    room3 28.3753 28.7205 30.5281
    spaceship 34.6737 34.9475 36.4631
    classroom 28.3950 28.8085 29.2977
    car2 35.1654 35.5345 35.8963
    house 33.8761 34.1780 34.3117
    平均 30.9557 31.4548 32.4406

    图8给出了文献[8]、文献[9]的方法和本文的降噪算法计算结果的视觉差异。残差网络方法没有考虑场景细节信息,导致场景过于模糊。例如,对比的方法在“room3”场景的枕头和相框处呈现平滑效果,产生伪影,图像出现模糊,同时也出现锯齿现象。相比而言,本文方法能够得到更清晰的图像。实验结果证明,本文方法的主观视觉效果比其他方法能保留的细节更多,视觉效果也更好。

    表  3  不同方法和场景的平均SSIM评价指标
    Table  3  Average SSIM evaluation index value under different methods and scenes
    场景 文献[8] 文献[9] 本文
    staircase 0.9100 0.9208 0.9310
    bathroom 0.8522 0.8579 0.8615
    room3 0.8481 0.8863 0.9074
    spaceship 0.9388 0.9577 0.9626
    classroom 0.8556 0.8676 0.8924
    car2 0.9509 0.9537 0.9588
    house 0.9419 0.9487 0.9435
    平均 0.8996 0.9132 0.9225

    本文使用自编码网络引入递归残差网络结构对蒙特卡罗渲染画面进行降噪,将深度、法向量以及反射率等辅助信息作为数据集,得到初始的重构图像。将获得的初始图像与噪声图像融合,融合后的图像在递归网络模型中进行降噪。本文在递归网络模型中减少了近一半的网络参数,与深度残差网络相比提升了网络降噪的速率。未来将考虑结合视觉感知来进行蒙卡渲染画面的降噪,并设计局部视觉感知的网络,进一步研究视觉感知差异对降噪的效果。

  • 图  1   融合递归自编码模型框架

    Fig.  1   Frame of fusion recursive auto-encoder model

    下载: 全尺寸图片

    图  2   递归网络结构

    Fig.  2   Recursive network structure

    下载: 全尺寸图片

    图  3   递归残差块结构

    Fig.  3   Recursive residual block structure

    下载: 全尺寸图片

    图  4   辅助信息示例

    Fig.  4   Exemplary diagram of auxiliary information

    下载: 全尺寸图片

    图  5   数据集

    Fig.  5   Datasets

    下载: 全尺寸图片

    图  6   消融实验结果

    Fig.  6   Results of ablation experiments

    下载: 全尺寸图片

    图  7   收敛曲线

    Fig.  7   Diagram of convergence curves

    下载: 全尺寸图片

    图  8   降噪后视觉效果

    Fig.  8   Visual effect after performing deniosing

    下载: 全尺寸图片

    表  1   实验环境

    Table  1   Experimental environment

    实验环境 参数
    设备型号 Think Station P920
    操作系统 Ubuntu 18.06版本
    CPU处理器 Intel Xeon Gold 5120T CPU 2.2 GHz x56
    GPU NVIDA Quadro P5000
    机器学习环境 Pytorch
    CUDA版本 V10.0
    语言环境 Python,C++

    表  2   不同方法和场景的平均PSNR评价指标

    Table  2   Average PSNR evaluation index value under different methods and scenes

    场景 文献[8] 文献[9] 本文
    staircase 30.9955 32.4319 32.6743
    bathroom 25.2087 25.5627 27.9132
    room3 28.3753 28.7205 30.5281
    spaceship 34.6737 34.9475 36.4631
    classroom 28.3950 28.8085 29.2977
    car2 35.1654 35.5345 35.8963
    house 33.8761 34.1780 34.3117
    平均 30.9557 31.4548 32.4406

    表  3   不同方法和场景的平均SSIM评价指标

    Table  3   Average SSIM evaluation index value under different methods and scenes

    场景 文献[8] 文献[9] 本文
    staircase 0.9100 0.9208 0.9310
    bathroom 0.8522 0.8579 0.8615
    room3 0.8481 0.8863 0.9074
    spaceship 0.9388 0.9577 0.9626
    classroom 0.8556 0.8676 0.8924
    car2 0.9509 0.9537 0.9588
    house 0.9419 0.9487 0.9435
    平均 0.8996 0.9132 0.9225
  • [1] LEHTINEN J, KARRAS T, LAINE S, et al. Gradient-domain metropolis light transport[J]. ACM transactions on graphics, 2013, 32(4): 1–12.
    [2] ROUSSELLE F, KNAUS C, ZWICKER M. Adaptive rendering with non-local means filtering[J]. ACM transactions on graphics, 2012, 31(6): 1–11.
    [3] KALANTARI N K, BAKO S, SEN P. A machine learning approach for filtering Monte Carlo noise[J]. ACM transactions on graphics, 2015, 34(4): 1–12.
    [4] MENG Xiaoxu, ZHENG Quan, Varshney A, et al. Real-time Monte Carlo denoising with the neural bilateral grid[C]//Eurographics Symposium on Rendering 2020. London: ESRL, 2020: 13-24.
    [5] CHAITANYA C R A, KAPLANYAN A S, SCHIED C, et al. Interactive reconstruction of Monte Carlo image sequences using a recurrent denoising autoencoder[J]. ACM transactions on graphics, 2017, 36(4): 1–12.
    [6] 谢川, 王勇超, 林志洁, 等. 基于对抗生成网络的蒙特卡罗噪声去除算法[J]. 模式识别与人工智能, 2018, 31(11): 1047–1060. doi: 10.16451/j.cnki.issn1003-6059.201811009

    XIE Chuan, WANG Yongchao, LIN Zhijie, et al. Monte Carlo noise removal algorithm based on adversarial generative network[J]. Pattern recognition and artificial intelligence, 2018, 31(11): 1047–1060. doi: 10.16451/j.cnki.issn1003-6059.201811009
    [7] VOGELS T, NOVÁK J, ROUSSELLE F, et al. Kerneel predicting convolutional neural networks for denoising[P]. US20180293711: 15/814190, 2018-11-10.
    [8] WONG K M, WONG T T. Deep residual learning for denoising Monte Carlo renderings[J]. Computational visual media, 2019, 5(3): 239–255. doi: 10.1007/s41095-019-0142-3
    [9] XU Bing, ZHANG Junfei, WANG Rui, et al. Adversarial Monte Carlo denoising with conditioned auxiliary feature modulation[J]. ACM transactions on graphics, 2019, 38(6): 1–12.
    [10] VICINI D, ADLER D, NOVÁK J, et al. Denoising deep Monte Carlo renderings[J]. Computer graphics forum, 2019, 38(1): 316–327. doi: 10.1111/cgf.13533
    [11] HUO Yuchi, YOON S E. A survey on deep learning-based Monte Carlo denoising[J]. Computational visual media, 2021, 7(2): 169–185. doi: 10.1007/s41095-021-0209-9
    [12] 王婕, 罗静蕊, 岳广德. 一种改进的多尺度融合并行稠密残差去噪网络[J]. 小型微型计算机系统, 2021, 42(4): 798–804. doi: 10.3969/j.issn.1000-1220.2021.04.021

    WANG Jie, LUO Jingrui, YUE Guangde. Improved parallel residual dense denoising network based on multi-scale fusion[J]. Journal of Chinese computer systems, 2021, 42(4): 798–804. doi: 10.3969/j.issn.1000-1220.2021.04.021
    [13] RONNEBERGER O. Invited talk: U-net convolutional networks for biomedical image segmentation[C]//Bildverarbeitung für die Medizin 2017. Berlin: Springer Vieweg, 2017: 3−3.
    [14] SZEGEDY C, IOFFE S, VANHOUCKE V, et al. Inception-v4, inception-ResNet and the impact of residual connections on learning[C]//Proceedings of the AAAI Conference on Artificial Intelligence. San Francisco: AAAI Press, 2017, 31(1): 11231.
    [15] WANG Tianyang, SUN Mingxuan, HU Kaoning. Dilated deep residual network for image denoising[C]//2017 IEEE 29th International Conference on Tools with Artificial Intelligence. Boston: IEEE, 2018: 1272−1279.
    [16] BENEDIKT Bitterli. Rendering resources[EB/OL]. [2021−12−06].https://benedikt-bitterli.me/resources/.
    [17] LIN Weiheng, WANG Beibei, WANG Lu, et al. A detail preserving neural network model for Monte Carlo denoising[J]. Computational visual media, 2020, 6(2): 157–168. doi: 10.1007/s41095-020-0167-7
    [18] SIMONYAN K, ZISSERMAN A. Two-stream convolutional networks for action recognition in videos[EB/OL]. (2014−06−09) [2021−12−06].https://arxiv.org/abs/1406.2199.
    [19] KREINOVICH V, NGUYEN H, OUNCHAROEN R. How to estimate forecasting quality: a system- motivated derivation of symmetric mean absolute percentage error and other similar characteristics[EB/OL]. [2021−12−06]. http://www.cs.utep.edu/vladik/2014/tr14-53.pdf.
    [20] ISOLA P, ZHU Junyan, ZHOU Tinghui, et al. Image-to-image translation with conditional adversarial networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 5967−5976.
    [21] 许家荣. 核预测与GAN特征保持的蒙特卡罗渲染图像去噪[D]. 广州: 华南理工大学, 2020.

    XU Jiarong. Denoising of Monte Carlo renderings based on kernel prediction and feature-preserved GAN[D]. Guangzhou: South China University of Technology, 2020.
    [22] 佟雨兵, 张其善, 祁云平. 基于PSNR与SSIM联合的图像质量评价模型[J]. 中国图象图形学报, 2006, 11(12): 1758–1763. doi: 10.11834/jig.2006012307

    TONG Yubing, ZHANG Qishan, QI Yunping. Image quality assessing by combining PSNR and SSIM[J]. Journal of image and graphics, 2006, 11(12): 1758–1763. doi: 10.11834/jig.2006012307
    [23] 林椹尠, 张梦凯, 吴成茂. 利用残差密集网络的运动模糊复原方法[J]. 智能系统学报, 2021, 16(3): 442–448.

    LIN Zhenxian, ZHANG Mengkai, WU Chengmao. Image restoration with residual dense network[J]. CAAI transactions on intelligent systems, 2021, 16(3): 442–448.
WeChat 点击查看大图
图(8)  /  表(3)
出版历程
  • 收稿日期:  2021-12-06
  • 网络出版日期:  2023-03-24

目录

    /

    返回文章
    返回