2. 教育人工智能与个性化学习河南省重点实验室 河南 新乡 453007;
3. 上海理工大学 光电与计算机工程学院 上海 200093
2. Key Laboratory of Artificial Intelligence and Personalized Learning in Education of Henan Province, Xinxiang 453007, China;
3. School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology, Shanghai 200093, China
图像隐写是一种用于保护秘密图像的技术,其实现过程是将一幅秘密图像嵌入另一幅载体图像中,使生成的载密图像与原始载体图像之间无法区分,同时要求接收方能够从载密图像中成功地提取出隐藏的秘密图像。传统的图像隐写方法主要依赖嵌入算法来隐藏二进制的秘密信息,然而该方法隐藏容量小,视觉效果较差,并且无法隐藏图像数据。
为了解决传统图像隐写所面临的问题,研究者开始探索将神经网络引入图像隐写领域,从而将基于手工、先验知识设计的隐写方法转变为基于数据驱动的方式,让网络能够自动地学习更隐蔽的隐藏位置。例如,Baluja[1]首次使用深度神经网络,实现了相同尺寸的彩色秘密图像隐藏。Zhu等[2]提出一种基于小波域残差卷积神经网络隐写方案,该方案将秘密图像从空间域转换到频域中,从而实现图像隐藏。Jing等[3]提出一种基于可逆神经网络进行图像隐写的框架,通过逆向学习机制可以更大程度地恢复秘密图像。Guan等[4]提出一种基于可逆神经网络的多图像隐藏框架DeepMIH,实现了多幅图像的隐藏。
上述研究工作表明,基于深度神经网络的图像隐写技术能够克服传统隐写技术的不足,但现有的深度隐写方案仍具有进一步的提升空间。本文提出一种基于改进ConvNeXt Block的新型双域融合图像隐写方案,并将其命名为DFNet方案,以便于后续描述。其中,ConvNeXt Block[5]采用了一种深度可分离卷积,该卷积在训练过程中不仅可以提升网络的学习能力,还能够更好地捕捉图像的特征信息。此外,在所提出的网络结构中设计了一种新型的双域融合方式,有效地提升了图像隐写质量。本文主要贡献如下。
1) 首次提出了一种基于改进ConvNeXt Block的卷积模块,采用深度可分离卷积对图像特征进行学习和表示,有效地提高了图像的不可感知性。
2) 设计了一种新型双域融合方式,在图像的空间域中融合所有原图像的频域信息,不仅增强了图像的安全性,而且能够适用于多图像隐藏。
3) 在网络训练过程中设计多个损失函数对图像进行级联约束,进一步提升了图像之间的不可感知性。
1 相关工作 1.1 空间域和频域隐写 1.1.1 空间域隐写现阶段的图像隐写研究大多将秘密图像的空间域特征信息嵌入载体图像的空间域特征信息中,利用神经网络调整权重以及损失函数来进行网络约束,从而最大程度地完成隐写。由于图像的空间域特征中包含图像的局部或全局信息,从而能够使网络更好地捕捉图像的边缘特征、纹理特征等。例如,文献[1]、[6]~[13]中的方案,通过神经网络训练自动学习如何在空间域隐藏秘密图像,不需要人工设计复杂的算法,同时可以根据特定的数据集和要求调整隐藏策略,从而提高自适应能力。
1.1.2 频域隐写图像的频域隐写是一种将秘密图像分解为不同的频域分量后再隐藏到载体图像中的方式。例如,文献[2]~[4]、[14]中的方案,通过小波变换[15]进行频域隐写。其中,小波变换是一种在信号处理和图像处理领域中广泛应用的多尺度分析方法,它通过将信号或图像分解为不同频率和尺度的分量,提供了一种更全面、更准确的数据表示方式。离散小波变换(discrete wavelet transform, DWT)是小波变换的一种常用形式,它通过一系列的下采样和分解操作来实现对图像的分解,并通过上采样和分量重构恢复原始图像。因此,通过小波变换可以得到包含原始图像的不同频域分量,并且通过离散小波逆变换(inverse wavelet transform, IWT)可以完美地恢复原始信号或图像。
1.2 ConvNeXt Block随着新型网络架构Transformer[16]、Swin Transformer[17]等的出现,它们逐渐取代了传统卷积神经网络。Liu等[5]认为新型网络架构并不能完全取代卷积神经网络在图像处理中的应用,同时也认为传统卷积存在一些不足,因此提出了一种新的卷积神经网络模块ConvNeXt Block。该模块借鉴了Swin Transformer Block的设计理念和ResNet Block的实现方式,结合深度卷积和逐点卷积对图像数据进行特征提取,从而提升对数据的表达能力。
2 图像隐写方案DFNet 2.1 网络方案概述图像隐写方案DFNet的框架如图 1所示。其中,C表示载体图像,S表示秘密图像,C′表示载密图像,S′表示恢复的秘密图像,©表示跳跃连接。该方案采用了一种新型的双域融合方式,将图像的频域信息与图像的空间域信息相融合。网络结构设计为端到端的训练方式,其中隐藏网络和提取网络同步进行训练,且均采用编码-解码的方式。在网络结构中使用RCNeXt模块进行图像特征提取,并采用像素重组技术对图像特征进行解码,图 1的中间部分为隐藏网络和提取网络的共用部分。最后,通过跳跃连接使编码-解码通道的特征进行交互,获取更丰富的图像特征,从而有效提高网络的学习能力。
|
图 1 图像隐写方案DFNet的框架 Fig. 1 The framework of DFNet image steganography scheme |
虽然前人的研究也有采用频域进行秘密图像隐藏的方案,但是并没有进行充分融合。例如,Zhu等[2]在方案中对秘密图像进行小波变换,但是丢弃了秘密图像的低频系数。Liu等[14]在方案中将秘密图像的全部小波系数隐藏到载体图像中,虽然提高了图像的视觉效果,但是该方案没有考虑载体图像的频域信息。因此,本文设计了一种新型的双域融合方式进行图像隐写。首先,将载体图像与秘密图像进行通道连接,将其转换到高维潜在空间中。其次,对这两幅图像分别进行小波变换,将缩减后的频域信息与高维空间信息进行充分融合。该方式不仅能够使网络学习到更隐蔽的隐藏位置,而且能够使载密图像和恢复的秘密图像的质量均有所提高。
2.3 RCNeXt为了使ConvNeXt Block模块更好地适用于图像隐写领域,在其结构的基础上进行改进,改进后的模块命名为RCNeXt,其具体结构如图 2所示。首先,该模块采用1×1卷积层对输入的图像特征进行高维度变换。其次,通过深度卷积和逐点卷积相结合的方式对图像的高维特征进行学习和表示。最后,对处理后的特征信息通过残差连接的方式进行信息增强,并使用PReLU激活函数进行输出。该激活函数引入一个可学习的参数,可以根据数据的特征进行自适应调整,这对网络学习如何隐藏图像信息具有更大的优势。
|
图 2 RCNeXt卷积模块结构 Fig. 2 RCNeXt convolution module structure |
DFNet方案的隐藏网络结构如图 1的上半部分所示。在该隐藏网络中,使用尺寸为256×256×3的RGB载体图像以及尺寸为256×256×3的RGB秘密图像作为网络的输入,输出为256×256×3的RGB载密图像。同时,将下采样操作视为对图像信息进行编码的过程,上采样则视为解码的过程。首先,DFNet方案将输入的C和S在通道维度进行拼接,经过RCNeXt模块将图像从低维特征空间提升到高维特征空间,并对其进行下采样以调整高维空间特征图的尺寸大小。其次,高维空间特征图与C和S经过频域变换得到的DWT_C和DWT_S进行充分融合,融合后的特征图中包含着图像的空间域和频域双重信息,对经过充分融合的双域特征进行编码-解码。在这一过程中,采用跳跃连接的方式来增强解码过程中的特征信息。再次,在解码过程中,DFNet方案采用像素重组技术对特征图的像素进行重新排列,从而达到缩减通道数并增大特征图尺寸的目的。最后,对特征图进行输出,输出结果为载密图像C′。
DFNet方案的提取网络与隐藏网络在总体结构上保持一致。与隐藏网络不同的是,提取网络在恢复图像过程中采用的是小波逆变换。
2.5 损失函数DFNet方案的损失函数由三部分组成,分别是隐藏损失、提取损失和小波域损失。通过优化损失函数,网络能够缩小图像之间的差异,从而使图像表现得更加相似。
1) 隐藏损失Lhidden:生成的载密图像与载体图像之间的损失。通过对该损失进行优化,可以使两幅图像之间的像素差异更小。其计算公式为
| $ L_{\mathrm{hidden}}=\sum\limits_{n=1}^N\left(I_{\mathrm{stego}}^{(n)}-I_{\mathrm{cover}}^{(n)}\right), $ | (1) |
其中:Istego(n)和Icover(n)分别表示载密图像和载体图像;N为训练样本数量。
2) 提取损失Lreveal:恢复的秘密图像与原始的秘密图像之间的损失。其计算公式为
| $ L_{\mathrm{reveal}}=\sum\limits_{n=1}^N\left(I_{\mathrm{revSec}}^{(n)}-I_{\mathrm{secret}}^{(n)}\right), $ | (2) |
其中:IrevSec(n)和Isecret(n)分别表示恢复的秘密图像和原始的秘密图像。
3) 小波域损失LfreH和LfreR:载密图像和载体图像之间的小波域损失以及恢复的秘密图像和秘密图像之间的小波域损失。小波域损失能够增强载密图像的不可区分性,同时提升恢复的秘密图像的质量。其计算公式为
| $ L_{\mathrm{freH}}=\sum\limits_{n=1}^N\left(D W T\left(I_{\mathrm{stego}}^{(n)}\right)-D W T\left(I_{\mathrm{cover}}^{(n)}\right)\right), $ | (3) |
| $ L_{\mathrm{freR}}=\sum\limits_{n=1}^N\left(D W T\left(I_{\mathrm{revSec}}^{(n)}\right)-D W T\left(I_{\mathrm{secret}}^{(n)}\right)\right), $ | (4) |
其中:LfreH和LfreR分别表示隐藏网络和提取网络的小波域损失;DWT为小波变换。
总损失Ltotal由前面所述的损失项组成,通过对这些损失项进行加权求和,构成了DFNet方案的最终损失函数,
| $ L_{\text {total }}=\alpha L_{\text {hidden }}+\beta L_{\text {reveal }}+\lambda L_{\text {freH }}+\gamma L_{\text {freR }}, $ | (5) |
其中:α,β,λ,γ分别用来平衡不同损失项的权重。
3 实验 3.1 实验设置实验硬件配置:1个GPU,8 GB显存,型号为GeForce GTX1080,Python3.9,所用的深度学习框架为PyTorch2.0.1。实验采用ImageNet图像数据集,随机选择63 000张图像。其中,50 000张图像用于训练,10 000张图像用于验证,3 000张图像用于测试,图像数据没有重复。方案的超参数α=1,β=1,λ=0.75,γ=0.75,初始学习率为0.001,batch设置为4,训练迭代次数设置为200。
3.2 评价指标选用的四种评价指标如下。
1) 峰值信噪比(peak signal-to-noise ratio, PSNR):用于衡量图像像素中的噪声水平。其计算公式为
| $ P S N R=10 \lg \left(\frac{I_{\max }^2}{M S E}\right), $ | (6) |
| $ \operatorname{MSE}\left(I, I^{\prime}\right)=\frac{1}{W \times H} \sum\limits_{i=1}^W \sum\limits_{j=1}^H\left(I_{i, j}-I_{i, j}^{\prime}\right)^2, $ | (7) |
其中:Imax表示图像的最大像素值,通常为255;I为原始图像;I′为生成图像;W和H分别为图像的宽和高。PSNR值越大,图像隐写质量越好。
2) 结构相似性(structural similarity, SSIM)[18]:是一种用于评估两幅图像之间相似度的指标。该指标基于三个主要参数进行设计:局部亮度、对比度以及独立于亮度和对比度的图像结构。其计算公式为
| $ \begin{gathered} \operatorname{SSIM}\left(I, I^{\prime}\right)=\frac{\left(2 u_I u_{I^{\prime}}+C_1\right)\left(2 \sigma_I \sigma_{I^{\prime}}+C_2\right)}{\left(u_I^2+u_{I^{\prime}}^2+C_1\right)\left(\sigma_I^2+\sigma_{I^{\prime}}^2+C_2\right)}, \\ C_1=\left(k_1 L\right)^2, C_2=\left(k_2 L\right)^2, \end{gathered} $ | (8) |
其中:u为亮度均值;σ为信号对比度标准差;k1和k2为稳定参数,分别默认为0.01和0.03;L为像素值的动态范围。SSIM的范围为0~1,该指标越接近于1,表明两幅图像之间越相似。
3) 学习感知图像块相似度(learned perceptual image patch similarity, LPIPS)[19]:是一种更为先进的图像衡量工具,它利用深度学习模型来提取图像的高级特征表示,并通过比较这些特征来衡量图像之间的感知相似性。不同于直接比较像素值,该方式更贴近人类的视觉感知。当两幅图像之间的LPIPS值越小时,表明它们越相似。
4) 嵌入容量(embedded capacity, EC):是指在载体图像中嵌入的秘密信息量。其计算公式为
| $ E C=\frac{P C}{W \times H}, $ | (9) |
其中:PC为秘密信息容量;W和H分别为载体图像的宽和高。
3.3 不可感知性的定量评价为了评估DFNet方案的图像隐写质量,使用EC、PSNR、SSIM、LPIPS四种指标进行评价。对比方案均选自以图藏图的隐写方案,并且对比方案中有名称的使用方案名称,没有方案命名的则用作者姓名代替,对比结果如表 1所示(表中数值均为在ImageNet数据集上的实验均值)。其中,C-C′表示载体图像与载密图像之间的指标评价,S-S′表示秘密图像与恢复的秘密图像之间的指标评价,后续表格也采用相同字母进行表示。从表 1可知,DFNet方案相比其他隐写方案在PSNR上平均提高3~4 dB,SSIM和LPIPS的平均值分别为0.99和0.001。DFNet方案的图像隐藏效果要优于对比方案,秘密图像的恢复效果也可达到次优水平。
|
|
表 1 不同图像隐写方案的评价指标对比 Tab. 1 Comparison of evaluation indicators for different image steganography schemes |
残差图像可以直观地显示出图像之间的视觉差距,通过载密图像是否与载体图像一致可以看出是否携带秘密图像信息。如果残差图像中包含隐藏的秘密信息,则会显示出图像之间的残差影像,即该方案不安全;如果在残差图像中看不到任何信息,则表明图像具有较好的不可感知性。不可感知性对比实验结果如图 3所示,对比了Baluja[22]提出的方案、Duan等[21]提出的StegoPNet方案、Zhang等[7]提出UDH方案,以及本文所提出的DFNet方案。可以看出,DFNet方案的载体图像与载密图像的10倍残差图像依旧没有表现出明显的像素差异,无法区分是否携带秘密信息,因此具有较好的不可感知性。
|
图 3 不可感知性对比实验 Fig. 3 Imperceptibility comparison experiment |
考虑散点图更能展现出方案的整体性能,因此将不可感知性的测试结果绘制为散点图,结果如图 4所示。
|
图 4 测试结果散点图 Fig. 4 Scatter plot of test results |
从图 4测试结果可知,DFNet方案的指标数值范围比较集中,具有较好的稳定性。其中,载体图像与载密图像之间的PSNR、SSIM、LPIPS的最优结果分别为55.21 dB、0.999 1、0.000 093。秘密图像和恢复的秘密图像之间的PSNR、SSIM、LPIPS的最优结果分别为51.61 dB、0.997 4、0.000 23。
3.5 安全性分析图像隐写的安全性可通过隐写分析器来评估。为了检验DFNet方案的抗隐写分析性能,采用StegExpose[24]对1 500张载体图像和1 500张载密图像进行隐写分析测试,并将结果绘制成ROC曲线,如图 5所示,其中对角虚线表示随机猜测。若测试结果越接近对角虚线,则表明该方案的抗隐写分析能力越强。将DFNet方案与其他隐写方案在ROC曲线上进行了对比,结果表明,DFNet方案更接近对角虚线,因此具有更高的安全性。
|
图 5 ROC曲线对比 Fig. 5 Comparison of ROC curves |
为了进一步探究DFNet方案的抗隐写分析能力,使用了两种先进的隐写分析网络,即XuNet[25]和YeNet[26]来对所提方案进行检测。抗隐写分析能力对比结果如表 2所示。当检测准确率越接近50%时,意味着该方案具有更优的抗隐写分析能力。通过与其他方案对比可知,DFNet方案在抗隐写分析方面表现出更高的安全性。
|
|
表 2 抗隐写分析能力对比 Tab. 2 Comparison of anti-steganalysis capabilities |
大容量图像隐藏是图像隐写领域中的一个重要优化目标,旨在追求如何在一幅大小有限的图像中隐藏更多信息的同时,仍然可以保持较好的隐写质量。为了验证DFNet方案在大容量方面的优势,对其进行大容量隐写实验。一幅载体图像中隐藏两幅秘密图像的方案对比结果如表 3所示。可以看出,DFNet方案的效果优于其他大容量隐写方案。
|
|
表 3 一幅载体图像中隐藏两幅秘密图像的方案对比结果 Tab. 3 Comparative results of schemes for hiding two secret images in one carrier image |
为了进一步验证DFNet方案在大容量隐写中的效果,尝试在一幅载体图像中隐藏三幅秘密图像,此时载密图像中隐藏的秘密图像信息的EC达到72 bpp,对比结果如表 4所示。可以看出,即使隐藏三幅秘密图像,DFNet方案的隐写效果也要优于对比隐写方案DeepMIH的效果,这表明DFNet方案在更大的嵌入容量时依旧具有优势。
|
|
表 4 一幅载体图像中隐藏三幅秘密图像的方案对比结果 Tab. 4 Comparative results of schemes for hiding three secret images in one carrier image |
为了验证DFNet方案的改进效果,在消融实验中设置了三个对照组:第一组使用空间域图像隐写;第二组采用频域图像隐写,并引入小波损失函数进行约束;第三组则结合了空间域和频域的隐写方式,但没有使用小波损失函数约束。
使用三个对照组方案进行了重新训练,训练过程中的所有参数与DFNet方案保持一致,并使用相同的测试集对各项指标进行了重新测试,消融对照组与DFNet方案的对比实验结果如表 5所示。可以看出,单一域隐写方案在各项指标上均不如双域隐写方案,而在双域隐写方案中引入小波损失函数并进行多种损失级联,可以显著提升隐写质量,表明所提出的新型双域隐写方案在图像隐藏和提取效果上均有所改善。
|
|
表 5 消融对照组与DFNet方案的对比实验结果 Tab. 5 Comparative experimental results between the ablation control groups and the DFNet scheme |
本文提出了一种基于改进ConvNeXt Block的新型双域图像隐写方案DFNet,该方案使用改进的深度可分离卷积对图像特征进行学习和表示,并设计了一种新型双域融合的方式进行秘密图像的嵌入,隐写和提取过程采用编码-解码的方式。实验结果表明,与已有隐写方案相比,DFNet方案具有更高的不可感知性、安全性和更大的隐写容量。DFNet方案的局限性在于鲁棒性不足,载密图像在受到攻击后的恢复效果较差。因此,下一步的工作将围绕着提高图像隐写的鲁棒性展开。
| [1] |
BALUJA S. Hiding images in plain sight: deep steganography [C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2017: 2066-2076.
( 0) |
| [2] |
ZHU X S, LAI Z L, LIANG Y R, et al. Generative high-capacity image hiding based on residual CNN in wavelet domain[J]. Applied soft computing, 2022, 115: 108170. DOI:10.1016/j.asoc.2021.108170 ( 0) |
| [3] |
JING J P, DENG X, XU M, et al. HiNet: deep image hiding by invertible network[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE Press, 2021: 4713-4722.
( 0) |
| [4] |
GUAN Z Y, JING J P, DENG X, et al. DeepMIH: deep invertible network for multiple image hiding[J]. IEEE transactions on pattern analysis and machine intelligence, 2023, 45(1): 372-390. DOI:10.1109/TPAMI.2022.3141725 ( 0) |
| [5] |
LIU Z, MAO H Z, WU C Y, et al. A ConvNet for the 2020s[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2022: 11966-11976.
( 0) |
| [6] |
DUAN X T, NAO L, GOU M X, et al. High-capacity image steganography based on improved FC-DenseNet[J]. IEEE access, 2020, 8: 170174-170182. DOI:10.1109/ACCESS.2020.3024193 ( 0) |
| [7] |
ZHANG C N, BENZ P, KARJAUV A, et al. UDH: universal deep hiding for steganography, watermarking, and light field messaging[C]//Proceedings of the 34th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2020: 10223-10234.
( 0) |
| [8] |
TAN J X, LIAO X, LIU J T, et al. Channel attention image steganography with generative adversarial networks[J]. IEEE transactions on network science and engineering, 2022, 9(2): 888-903. DOI:10.1109/TNSE.2021.3139671 ( 0) |
| [9] |
LI Q, WANG X Y, WANG X Y, et al. A novel grayscale image steganography scheme based on chaos encryption and generative adversarial networks[J]. IEEE access, 2020, 8: 168166-168176. DOI:10.1109/ACCESS.2020.3021103 ( 0) |
| [10] |
SHANG Y Y, JIANG S Z, YE D P, et al. Enhancing the security of deep learning steganography via adversarial examples[J]. Mathematics, 2020, 8(9): 1446. DOI:10.3390/math8091446 ( 0) |
| [11] |
WANG Z Y, ZHOU M C, LIU B J, et al. Deep image steganography using transformer and recursive permutation[J]. Entropy, 2022, 24(7): 878. DOI:10.3390/e24070878 ( 0) |
| [12] |
LI G F, FENG B W, HE M J, et al. High-capacity coverless image steganographic scheme based on image synthesis[J]. Signal processing: image communication, 2023, 111: 116894. DOI:10.1016/j.image.2022.116894 ( 0) |
| [13] |
SHANG F, LAN Y H, YANG J H, et al. Robust data hiding for JPEG images with invertible neural network[J]. Neural networks, 2023, 163: 219-232. DOI:10.1016/j.neunet.2023.03.037 ( 0) |
| [14] |
LIU L S, MENG L Z, PENG Y J, et al. A data hiding scheme based on U-Net and wavelet transform[J]. Knowledge-based systems, 2021, 223: 107022. DOI:10.1016/j.knosys.2021.107022 ( 0) |
| [15] |
MALLAT S G. A theory for multiresolution signal decomposition: the wavelet representation[J]. IEEE transactions on pattern analysis and machine intelligence, 1989, 11(7): 674-693. DOI:10.1109/34.192463 ( 0) |
| [16] |
VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2017: 6000-6010.
( 0) |
| [17] |
LIU Z, LIN Y T, CAO Y, et al. Swin Transformer: hierarchical vision Transformer using shifted windows[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway: IEEE Press, 2021: 9992-10002.
( 0) |
| [18] |
WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE transactions on image processing, 2004, 13(4): 600-612. DOI:10.1109/TIP.2003.819861 ( 0) |
| [19] |
ZHANG R, ISOLA P, EFROS A A, et al. The unreasonable effectiveness of deep features as a perceptual metric[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2018: 586-595.
( 0) |
| [20] |
REHMAN A, RAHIM R, NADEEM M, et al. End-to-end trained CNN encoder-decoder networks for image steganography[C]//Proceedings of the European Conference on Computer Vision. Cham: Springer International Publishing, 2018: 723-729.
( 0) |
| [21] |
DUAN X T, WANG W X, LIU N, et al. StegoPNet: image steganography with generalization ability based on pyramid pooling module[J]. IEEE access, 2020, 8: 195253-195262. DOI:10.1109/ACCESS.2020.3033895 ( 0) |
| [22] |
BALUJA S. Hiding images within images[J]. IEEE transactions on pattern analysis and machine intelligence, 2020, 42(7): 1685-1697. DOI:10.1109/TPAMI.2019.2901877 ( 0) |
| [23] |
LU S P, WANG R, ZHONG T, et al. Large-capacity image steganography based on invertible neural networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2021: 10811-10820.
( 0) |
| [24] |
BOEHM B. StegExpose: a tool for detecting LSB steganography[EB/OL]. (2014-10-24) [2024-05-15]. https://doi.org/10.48550/arXiv.1410.6656.
( 0) |
| [25] |
XU G S, WU H Z, SHI Y Q. Structural design of convolutional neural networks for steganalysis[J]. IEEE signal processing letters, 2016, 23(5): 708-712. DOI:10.1109/LSP.2016.2548421 ( 0) |
| [26] |
YE J, NI J Q, YI Y. Deep learning hierarchical representations for image steganalysis[J]. IEEE transactions on information forensics and security, 2017, 12(11): 2545-2557. DOI:10.1109/TIFS.2017.2710946 ( 0) |
2026, Vol. 58


0)