压缩感知(Compressed Sensing,CS) 是一种有效的信息采集技术[1-2],奈奎斯特采样定理要求信号的采样频率必须大于其最高频率的两倍以上才能保证完全重构原始信号,而压缩感知可以使用测量矩阵以远低于奈奎斯特采样特理论要求的采样率从测量值中重构出原始信号。压缩感知理论的出现不仅降低了信号采集的难度,而且减少了存储空间的消耗。压缩感知技术被应用于核磁共振成像[3],雷达成像[4],视频压缩[5]等领域。
压缩感知重构是压缩感知理论的核心问题之一,目标是从降维的测量值中重构出被采样的原始信号。传统的压缩感知重构方法专注于探索有理论保证的结构稀疏先验信息,再利用迭代优化的方法求解。这类方法具有较高的计算复杂性,并且要求较高的参数微调能力。
近年来,卷积神经网络在图像恢复方面取得较大成功。文献[6]提出一个非迭代的基于卷积神经网络的CS重构方法,证实了基于神经网络的CS重构的可行性,但逐块重构的方式导致出现许多块状伪影。文献[7]提出联合学习采样矩阵和重构进程的网络,有效抑制了伪影。为了实现网络的可扩展性,Shi W Z等[8]提出SCSNet,通过一个模型处理多个采样率任务。一些研究者提出了基于深度学习的展开CS方法。基于迭代收缩阈值算法[9],Zhang J等[10]将其展开为更灵活的网络,名为ISTA-Net,文献[11]进一步提出ISTA-Net++网络,能够灵活处理多个采样率和多场景的任务。
除了网络结构和优化算法设计,采样率分配也被学者所关注。根据人类视觉系统的特性,Yu Y等[12]提出分配更少采样率给非显著块,显著块分配更多采样率的策略。文献[13]也基于显著性设计了一个多通道的网络来分配不同的采样率给不同块,重构精度更高,但是手工设计的显著性检测方法适应性差。基于采样矩阵的约束等距性质[14](Restricted Isometry Property,RIP),Qiu C X等[15]提出一个自适应和级联的卷积网络名为ACCSNet,依靠级联架构实现了采样率的自适应分配,但是级联架构只能针对特定采样率训练,缺乏灵活性。
本文基于测量域的误差估计图像块重构难度,提出有效的分配策略,保证了低采样率下的重构效果。通过掩码生成特定采样率的采样矩阵,实现了一个模型处理多个采样率任务,降低了存储消耗。提出跨阶段的通道连接和双支路的特征融合模块,增强了上下文信息的交互,并自适应调整不同支路权重,提高了网络的重构能力。
1 相关工作图像压缩感知方法可以分为两类,一类是基于优化理论的方法,第二类是基于网络的方法。
1.1 压缩感知重构方法 1.1.1 基于优化理论的方法压缩感知理论指出,假设一个原始信号
$ \hat {\boldsymbol{x}} = \mathop {\arg \min }\limits_x \frac{1}{2}\left\| {{\boldsymbol{\varPhi x}} - {\boldsymbol{y}}} \right\|_2^2 + \lambda \psi \left( {\boldsymbol{x}} \right) $ | (1) |
式中:
文献[6]最早提出利用卷积网络从观测值中重构图像块。在文献[9]和文献[16]的基础上,文献[18]和文献[19]分别被提出,进一步探索块间关系和增强采样矩阵的性能,提高了重构质量。文献[20]提出COAST网络,增强了对任意采样矩阵的适用性。文献[21]提出了一个特征优化启发网络,在特征空间分阶段实现信息流,获得了好的重构效果。
1.2 误差钳制原理Candes E J提出约束等距性质[14],理论指出:当观测矩阵Φ满足约束等距性质,则有
$ (1 - \delta ) \left\| {\boldsymbol{x}} \right\|_2^2 \leqslant \left\| {{\boldsymbol{\varPhi x}}} \right\|_2^2 \leqslant (1 + \delta ) \left\| {\boldsymbol{x}} \right\|_2^2 $ | (2) |
式中:
$ {{\Delta }}{\boldsymbol{y}} = {\boldsymbol{\varPhi}} {{\Delta }}{\boldsymbol{x}} = {\boldsymbol{\varPhi}} \left( {{\boldsymbol{x}} - \hat {\boldsymbol{x}}} \right) = {\boldsymbol{y}} - {\boldsymbol{\varPhi}} \hat {\boldsymbol{x}} $ | (3) |
式中:x表示真实图像,y表示观测值。由限制等距性质得到下列不等式
$ \frac{{\left\| {{{\Delta }}{\boldsymbol{y}}} \right\|_2^2}}{{(1 + \delta ) }} \leqslant \left\| {{{\Delta }}{\boldsymbol{x}}} \right\|_2^2 \leqslant \frac{{\left\| {{{\Delta }}{\boldsymbol{y}}} \right\|_2^2}}{{(1 - \delta ) }} $ | (4) |
式中:
本文设计的网络框架如图1所示,包含4个子网:误差预测子网(Error Prediction Subnet,EPSNet) 、采样子网、初始化子网、恢复子网。原始图像先输入误差预测子网来评估图像块的重构难度,以此指导后续的采样和初始化,生成初始重构图像,再经过深度重构网络增强后输出重构图像。
![]() |
图 1 提出的网络框架 Figure 1 The proposed deep network framework |
误差预测子网的框架如图2所示,包含采样、初始化、轻量化重构和误差估计等4个进程。
![]() |
图 2 误差预测网络的框架 Figure 2 Framework of the error prediction network |
为了更好地表述4个进程,假设输入图像
$ {{\Delta }}{\boldsymbol{y}}_j^1 = {\boldsymbol{y}}_j^1 - {{\boldsymbol{\varPhi}} _1}\hat {\boldsymbol{x}}_j^1 $ | (5) |
式中:
$ {V_j} = \left\| {{{\Delta }}{\boldsymbol{y}}_j^1} \right\|_2^2\bigg/\sum \left\| {{{\Delta }}{\boldsymbol{y}}_j^1} \right\|_2^2 $ | (6) |
算法1展示了采样率sr分配的过程。为了保证低采样率下块的测量值不会太小,本文设置了γ 来控制分配的基础测量值和自适应采样测量值的比例。在低采样率时,可以最大程度保留图像的基本信息;高采样率时,可以提高自适应采样资源分配的比例,来获得更好的重构质量。
$ \gamma =\left\{ {\begin{array}{*{20}{l}} 0.8, & {\rm{sr}}\le 0.1 \\ 0.95-{\rm{sr}}, & 0.1 < {\rm{sr}}\le 0.5\end{array}} \right. $ | (7) |
算法1 采样率自适应分配策略
1) 输入:图像大小为H×W,块大小为B×B,采样率为sr,误差比例信息为V。
(a) 块的数量用l表示:l = (H/B) ×(W/B) ;
(b) 全部的像素数用total表示:total = H×W×sr;
(c) 基础采样数用base表示:base = sr × B2 × γ;
(d) for j = 1:l do
mj = base + round ( total×Vj ) ×( 1-γ)
end for
2) 输出:每个块分配测量值的数量mj。
为了体现自适应分配采样率的优点,图3展示了两张图像“摄影师”和“鹦鹉”的测量数分布。图像块内的数字表示分配到的测量数。从图3可以看到,细节更多的块分配了更多的测量资源。例如“摄影师”图片中的相机和“鹦鹉”的眼睛周围有更多复杂的结构和纹理,这些块更难重构,所以被分配了更多测量资源。
![]() |
图 3 图片“摄影师”和“鹦鹉”在0.1、0.25采样率下分别被分配的测量值数量 Figure 3 The respective number of assigned measurements for the pictures of "Cameraman" and "Parrot" at the sampling rates of 0.1 and 0.25 |
如图4所示,原始图像被展开成l块大小为B×B的块,块xj的采样过程为:
![]() |
图 4 采样子网和初始化子网 Figure 4 Sampling subnetwork and initialization subnetwork |
初始化进程如图4所示,每个块独立进行初始化,yj初始化的进程可以描述:
本文通过展开传统的近似梯度下降(Proximal Gradient Descent,PGD) ,利用公式(8)~(9)的迭代更新解决等式(1) 的问题。
$ {{\boldsymbol{z}}^k} = {\hat {\boldsymbol{x}}^{k - 1}} - \rho {{\boldsymbol{\varPhi}} ^{\rm{T}}}\left( {{\boldsymbol{\varPhi}} {{\hat {\boldsymbol{x}}}^{k - 1}} - {\boldsymbol{y}}} \right) $ | (8) |
$ {\hat {\boldsymbol{x}}^k} = \mathop {\arg \min }\limits_x \frac{1}{2}\left\| {\boldsymbol{x}} \right. - \left. {{{\boldsymbol{z}}^k}} \right\|_2^2 + \lambda \psi ({\boldsymbol{x}}) $ | (9) |
如图5所示,恢复子网包括t个阶段,每个阶段内包含2个进程:块梯度下降和记忆增强的近端映射,这与前面的2个公式迭代过程相对应。
![]() |
图 5 恢复子网和双支路融合模块 Figure 5 Restore subnetwork and dual-branch aggregation module |
首先,映射PGD的第一步迭代,根据等式(8) 进行逐块的块梯度下降,第j块的更新公式如下
$ {\boldsymbol{z}}_j^k = \hat {\boldsymbol{x}}_j^{k - 1} - {\rho ^k}{\boldsymbol{A}}_1^{\rm{T}}\left( {{{\boldsymbol{A}}_1}\hat {\boldsymbol{x}}_j^{k - 1} - {{\boldsymbol{y}}_j}} \right) $ | (10) |
式中:z表示更新后的子块,
本文设计了记忆增强映射网络来解等式(9) ,为了减少阶段间的信息丢失,上一个阶段的中间特征
$ {{\boldsymbol{d}}^k} = f_{{\rm{UNet}}}^k\left( {\left[ {{{\boldsymbol{Z}}^k}\mid {{\boldsymbol{r}}^{k - 1}}} \right]} \right) $ | (11) |
式中:
除了跨阶段的特征拼接,受到SKNet[23]的启发,本文设计了双支路特征融合模块,上一阶段中间特征
$ \left\{ {\begin{array}{*{20}{l}} {{\boldsymbol{v}} = {\rm{GP}}({{\boldsymbol{d}}^k} + {\rm{Conv}}({\rm{Conv}}({{\boldsymbol{d}}^{k{{-}}1}}) ) ) } \\ {{{\boldsymbol{w}}_k},{{\boldsymbol{w}}_{k - 1}} = {\rm{softmax}}([{\cal H}_{{\rm{FC}}}^{\;1}({\boldsymbol{v}}) ,{\cal H}_{{\rm{FC}}}^{\;2}({\boldsymbol{v}}) ]) } \\ {{{\boldsymbol{q}}^k} = {{\boldsymbol{d}}^k} \cdot {{\boldsymbol{w}}_k} + ({\rm{Conv}}({\rm{Conv}}({{\boldsymbol{d}}^{k - 1}}) ) ) \cdot {{\boldsymbol{w}}_{k - 1}}} \end{array}} \right. $ | (12) |
$ {{\boldsymbol{r}}^k} = {\rm{Conv}}({{\boldsymbol{q}}^k}) $ | (13) |
$ {\hat {\boldsymbol{X}}^k} = {\rm{Conv}}({\boldsymbol{r}}^k) + {{\boldsymbol{Z}}^k} $ | (14) |
式中:GP表示自适应全局池化操作,通过这两种方式,更多信息被保留到下一个阶段,且注意机制自适应调整不同支路的权重,可以强化重要特征的表达,提高网络性能。
2.6 损失函数与其他基于深度学习的CS方法一样,均方误差函数被设为损失函数。损失函数包括4个部分:L1,L2,L3,L4,
$ {L_1} = \frac{1}{{2{N_{\rm{b}}}}}\mathop \sum \nolimits_{k = 1}^{{N_{\text{b}}}} \left\| {{{\hat {\boldsymbol{X}}}_k} - {{\boldsymbol{X}}_k}} \right\|_2^2 $ | (15) |
式中:
$ {L_2} = \frac{1}{{{N^2}}}\left\| {{\boldsymbol{A}}{{\boldsymbol{A}}^{\rm{T}}} - {\boldsymbol{E}}} \right\|_2^2 $ | (16) |
本文对误差预测子网重构结果也做出了损失约束。
$ {L_3} = \frac{1}{{2{N_{\rm{b}}}}}\mathop \sum \nolimits_{k = 1}^{{N_{\text{b}}}} \left\| {{f_{{\rm{EPSNet}}}}{\text{(}}{{\boldsymbol{X}}_k}) - {{\boldsymbol{X}}_k}} \right\|_2^2 $ | (17) |
式中:
$ {L_4} = \frac{1}{{2{N_{\rm{b}}}}}\mathop \sum \nolimits_{k = 1}^{{N_{\text{b}}}} \left\| {f_{{\rm{EPSNet}}}^0{\text{(}}{{\boldsymbol{X}}_k}) - {{\boldsymbol{X}}_k}} \right\|_2^2 $ | (18) |
式中:
$ L = {L_1} + {\mu _1}{L_2} + {\mu _2}{L_3} + {\mu _3}{L_4} $ | (19) |
式中:
实验的训练平台为Windows10系统,CPU为Intel(R) Core(TM) i7-9700, GPU为NVIDA GeForce RTX2080 Ti,内存为32 GB。实验基于Pytorch深度学习框架,使用Adam对损失函数进行优化,总共训练70个epoch,前30个epoch的学习率为
本文的数据集有291张图像,其中包括T91的91张和Train400中的200张图像,与文献[7]、[18]一样,这些图像经过了随机旋转对数据进行增广,例如原图、旋转90°、旋转180°等。将训练图片裁剪成128×128的子图像,设置块大小B=32,N=
本文通过消融实验来验证不同模块对网络重构性能的影响,测试集为Set11。由表1可见,自适应采样和记忆增强模块都不添加时,进行均匀采样,纹理块缺乏采样,而平滑块采样资源冗余,阶段间信息丢失严重,导致重构质量不佳。只采用自适应采样模块时,PSNR平均提升0.41 dB;只采用记忆增强模块时,PSNR提升0.13 dB。说明两者都可以提升重构质量,且自适应采样提升作用更大。两者同时添加比只添加自适应采样模块仍有性能提升,说明记忆增强模块能进一步提高网络重构能力。当未采用数据增广时,其性能降低较大,PSNR平均降低了约0.48 dB,可见模型训练仍需要一定量的数据。
![]() |
表 1 不同模块组合下的PSNR对比 Table 1 Comparison of PSNR for different combinations of modules |
本文对比了其他8种不同的基于深度学习的CS方法包括ReconNet[6]、ISTA-Net++[11]、SCSNet[8]、CSNet+[7]、OPINE-Net+[18]、AMP-Net[19]、BCSNet[13]、ACCSNet[15]和COAST[20],实验代码来自作者的主页。
表2列举了不同方法实现的功能、参数量以及重构时间,其重构时间是指在统一平台下重构一帧256×256图像所需时间。表3给出了本文与ACCSNet和COAST方法的性能对比。表4列举了这些方法在基准数据集Set11、CBSD68和BSD100上不同采样率下的平均PSNR和SSIM表现。从表2~6来看,ReconNet采用高斯矩阵作为采样矩阵,网络简单参数少,但是重构质量不佳。CSNet+、OPINE-Net+和AMPNet等方法在Set11数据集上平均PSNR比本文方法分别低2.72 dB、1.57 dB、1.61 dB,均匀分配采样率限制了这些方法重构质量的提高。受益于采样率自适应分配的优势,BCSNet重构质量大大提高,但是多通道的框架缺乏灵活性且导致更长的重构时间。其他可伸展网络的方法ISTA-Net++和SCSNet,分别通过分层卷积和贪婪算法实现网络可扩展性,但只支持{0.1、0.2、0.3、0.4、0.5}几个采样比例,在CBSD68数据集上分别比本文方法的平均PSNR分别低2.69 dB、1.13 dB,SSIM分别低0.059、0.019。COAST需要训练数千个不同比例的可学习采样矩阵,训练成本高昂。从表3来看,其在0.1的采样率下比本文方法的平均PSNR低1 dB。本文方法通过掩码生成特定采样率的采样矩阵,结构更合理,支持[0,0.5]之间的任意采样率且在重构性能上更为优秀。从表1、2来看,在阶段共享的情况下,参数量降低了约64%,但PSNR平均只降低了约0.15 dB,说明网络的结构有效。图6、图7列出了不同方法的重构图像,本文重构图像的PSNR和SSIM最高,且纹理与原图最接近,有效抑制了块状伪影并恢复了更多的细节和锐利的边缘。
![]() |
表 2 不同方法的功能、参数量和运行速度对比 Table 2 Comparison of functions, number of parameters and running speed of different methods |
![]() |
表 3 本文算法与ACCSNET、COAST在Set11数据集上的PSNR和SSIM对比 Table 3 PSNR and SSIM comparison of the proposed algorithm with ACCSNET and COAST on the Set11 dataset |
![]() |
表 4 各种基于深度学习的CS方法在Set11数据集上的PSNR和SSIM比较 Table 4 PSNR and SSIM comparison of various deep learning-based CS methods on the Set11 dataset |
![]() |
表 5 各种基于深度学习的CS方法在CBSD68数据集上的PSNR和SSIM比较 Table 5 PSNR and SSIM comparison of various deep learning-based CS methods on the CBSD68 dataset |
![]() |
表 6 各种基于深度学习的CS方法在数据集BSD100上的PSNR和SSIM比较 Table 6 PSNR and SSIM comparison of various deep learning-based CS methods on the BSD100 dataset |
如表3所见,ACCSNet在Set11数据集上平均PSNR和SSIM分别比本文方法低1.27 dB和
![]() |
图 6 在0.1采样率下图像“鹦鹉”的不同重构结果 Figure 6 Different reconstruction results of the image 'parrot' at the sampling rate of 0.1 |
![]() |
图 7 在0.1采样率下图像“工头”的不同重构结果 Figure 7 Different reconstruction results of the image 'foreman' at the sampling rate of 0.1 |
本文提出了一种新的自适应采样与记忆增强的压缩感知重构算法。本文基于测量域的重构误差估计块的重构难度,设计了有效的分配策略来自适应分配采样率,并引入掩码矩阵,以实现特定采样率下的图像块采样。另外,本文增加了双支路的特征融合模块,来自适应聚合不同支路的信息,通过注意机制调整不同支路的权重,提高了网络的重构能力。实验表明,本文提出的算法比多个现有深度学习重构算法有更高的图像重构质量。
[1] |
DONOHO D L. Compressed sensing[J].
IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306.
DOI: 10.1109/TIT.2006.871582. |
[2] |
CANDES E J, WAKIN M B. An introduction to compressive sampling[J].
IEEE Signal Processing Magazine, 2008, 25(2): 21-30.
DOI: 10.1109/MSP.2007.914731. |
[3] |
LUSTIG M, DONOHO D L, SANTOS J M, et al. Compressed sensing MRI[J].
IEEE Signal Processing Magazine, 2008, 25(2): 72-82.
DOI: 10.1109/MSP.2007.914728. |
[4] |
ENDER J H G. On compressive sensing applied to radar[J].
Signal Processing, 2010, 90(5): 1402-1414.
DOI: 10.1016/j.sigpro.2009.11.009. |
[5] |
ZHENG S, CHEN J, ZHANG X P, et al. A new multihypothesis-based compressed video sensing reconstruction system[J].
IEEE Transactions on Multimedia, 2021, 23: 3577-3589.
DOI: 10.1109/TMM.2020.3028479. |
[6] |
KULKARNI K, LOHIT S, TURAGA P, et al. Reconnet: non-iterative reconstruction of images from compressively sensed measurements[C]// IEEE Conference on Computer Vision & Pattern Recognition (CVPR) . Las Vegas: IEEE, 2016: 449-458.
|
[7] |
SHI W Z, JIANG F, LIU S H, et al. Image compressed sensing using convolutional neural network[J].
IEEE Transactions on Image Processing, 2019, 29: 375-388.
|
[8] |
SHI W Z, JIANG F, LIU S H, et al. Scalable convolutional neural network for image compressed sensing[C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR) . Long Beach: IEEE, 2019: 12282-12291.
|
[9] |
BLUMENSATH T, DAVIES M E. Iterative hard thresholding for compressed sensing[J].
Applied and Computational Harmonic Analysis, 2009, 27(3): 265-274.
DOI: 10.1016/j.acha.2009.04.002. |
[10] |
ZHANG J, GHANEM B. Istanet: interpretable optimization-inspired deep network for image compressive sensing[C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR) . SaltLake City: IEEE, 2018: 1828-1837.
|
[11] |
YOU D, XIE J F, ZHANG J. Ista-net++: flexible deep unfoldingnetwork for compressive sensing[C]// IEEE International Conference on Multimedia and Expo (ICME) . Shenzhen: IEEE, 2021: 1-6.
|
[12] |
YU Y, WANG B, ZHANG L M. Saliency-based compressive sampling for image signals[J].
IEEE Signal Processing Letters, 2010, 17(11): 973-976.
DOI: 10.1109/LSP.2010.2080673. |
[13] |
ZHOU S W, HE Y, LIU Y H, et al. Multi-channel deep networksfor block-based image compressive sensing[J].
IEEE Transactionson Multimedia, 2021, 23: 2627-2640.
DOI: 10.1109/TMM.2020.3014561. |
[14] |
CANDES E J. The restricted isometry property and its implications for compressed sensing[J].
Comptes Rendus Mathematique, 2008, 346: 589-592.
DOI: 10.1016/j.crma.2008.03.014. |
[15] |
QIU C X, YUE T, HU X M. Adaptive and cascaded compressivesensing[EB/OL]. arXiv: 2203.10779 (2022-3-21) [2023-8-3]. https://doi.org/10.48550/arXiv.2203.10779.
|
[16] |
DONOHO D L, MALEKI A, MONTANARI A. Message-passing algorithms for compressed sensing[J].
Proceedings of the National Academy of Sciences of the United States of America, 2009, 106(45): 18914-18919.
|
[17] |
LI C, YIN W, JIANG H, et al. An efficient augmented lagrangian method with applications to total variation minimization[J].
Computational Optimization and Applications, 2013, 56(3): 507-530.
DOI: 10.1007/s10589-013-9576-1. |
[18] |
ZHANG J, ZHAO C, GAO W. Optimization-inspired compact deep compressive sensing[J].
IEEE Journal of Selected Topics in Signal Processing, 2020, 14(4): 765-774.
DOI: 10.1109/JSTSP.2020.2977507. |
[19] |
ZHANG Z H, LIU Y P, LIU J, et al. Ampnet: denoising-based deep unfolding for compressive image sensing[J].
IEEE Transactions on Image Processing, 2021, 30: 1487-1500.
DOI: 10.1109/TIP.2020.3044472. |
[20] |
YOU D, ZHANG J, XIE J F, et al. Coast: controllable arbitrary sampling network for compressive sensing[J].
IEEE Transactions on Image Processing, 2021, 30: 6066-6080.
DOI: 10.1109/TIP.2021.3091834. |
[21] |
CHEN W J, YANG C L, YANG X. Fsoinet: feature-space optimi-zation-inspired network for image compressive sensing[C]// IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Singapore: IEEE, 2022: 2460-2464.
|
[22] |
RONNEBERGER O, FISCHER P, BROX T. U-net: convolutionalnetworks for biomedical image segmentation[C]// International Conference on Medical Image Computing and Computer Assisted Intervention. Munich: Springer, 2015: 234-241.
|
[23] |
LI X, WANG W, HU X, et al. Selective kernel networks[C]// IEEE Conference on Computer Vision & Pattern Recognition. LongBeach: IEEE, 2019: 510-519.
|