图像作为人类和机器获取信息的重要来源,图像的质量将直接决定信息来源的准确性和有效性。然而,图像的获取、压缩、处理、传输、显示的过程中无可避免地会出现一定的失真,因此图像质量评价(Image Quality Assessment, IQA)被广泛地应用于许多图像任务处理当中。
目前,图像质量评价从方法上可以分为主观评价方法和客观评价方法[1]。主观评价是根据观察员对图像的主观感知来评价图像质量的,而客观评价则是模拟人类视觉系统的感知特性建立数学模型以评价图像的质量。相比主观评价,客观评价具有处理速度快,可批量处理,结果可重现的特点。当前客观评价算法根据其对参考图像的依赖程度分成3类[2],分别是全参考[3]、无参考[4-5]和半参考[6-7]。由于全参考的评价方法被广泛应用于评估图像处理算法,因此本文专注于全参考图像质量评价算法。
传统的全参考图像质量评价方法在默认参考图像为无失真图像的基础上,通过分析失真图像和参考图像之间的误差信号从而进行图像质量评价,如均方误差(Mean Square Error, MSE)和峰值信噪比(Peak Signal to Noise Ratio, PSNR)。MSE和PSNR由于其简单性而得到广泛应用,然而这两个数学模型和人类视觉系统(Human Visual System, HVS)的观察特性相关性较低,因此在涉及不同的失真类型时,这两种IQA方法难以获得令人满意的结果[3]。根据HVS的感知特性,Wang等[8]提出了结构相似性指数(Structural Similarity, SSIM),该方法采用图像亮度、对比度和结构特征的比较来感知图像的质量。由于其优秀的性能和计算效率,SSIM被公认为IQA研究领域中的里程碑。随后,Wang等[9]提出了多尺度的SSIM(Multi-scale Structural Similarity, MS-SSIM)以及Wang等[10]提出了信息内容加权的SSIM(Information Content Weighted Structural Similarity, IW-SSIM)。除了基于SSIM这一类型的IQA方法,研究者也提出了不少其他策略的IQA方法。Zhang等[11]假设HVS通过低级特征来理解图像,他们提出的特征相似性指数(Feature Similarity, FSIM)采用相位一致性和梯度幅值的比较来感知图像的局部失真,并使用相位一致性充当局部权重计算全局质量分数。Larson和Chandler等[12]认为,在评估不同失真程度的图像时,HVS会分别执行不同的策略,因此他们提出了基于最明显失真统计(Most Apparent Distortion, MAD)的IQA指标。Xue等[13]认为仅仅依靠梯度幅值就能够很好地评估图像的质量,并以标准偏差作为池化策略实现了一种高效的方法,即梯度幅值相似度偏差(Gradient Magnitude Similarity Deviation, GMSD)。Sun等[14]提出的基于超像素的相似性指数(Superpixel-based Similarity Index, SPSIM),图像被分割成人类视觉上有意义的超像素区域,在超像素中提取图像的局部特征并且计算这些特征的相似性度量。此外,学者们考虑到梯度特征区域的总体变化(Regional Gradient Consistency, RGC),并根据这种变化修正了特征相似度的度量。而在文献[15]所提出的视觉显著性指数(Visual Saliency-induced Index, VSI)中,视觉显著性信息被合并到IQA模型中以改善其性能,其中视觉显著性起双重作用:用以表征图像的局部特征以及作为加权池中的加权函数。
超像素将一些具有相似特性的像素聚合起来,形成一个更具有代表性的区域。因此利用超像素能够更准确地描述图像的局部特征并获得更加精确的相似性度量。此外,在观察图像时,人类的注意力机制会使人类优先处理图像中的某一部分[16],即人类对图像内容的感知不是均等的,而是更容易感知到显著性高的部分,忽视显著性低的部分。因此可以将视觉显著性用于局部特征相似性度量的修正以及池化策略。受上述超像素和视觉显著性特性的启发,本文提出一种协同超像素和视觉显著性的图像质量评价方法。在本文的工作中,在超像素分割出来的区域中提取亮度特征和色度特征,在视觉显著性检测模型中提取视觉显著谱(Saliency Map, SM)作为显著性特征,在Scharr算子中提取梯度特征。在对上述这些特征进行相似性度量的时候,分别使用基于区域梯度一致性和基于显著性的参数自适应策略对相似性度量进行修正。最后对图像所有特征的相似性度量使用加权池的池化策略,并且引入视觉显著谱SM作为加权池中的权重函数。
1 协同超像素和视觉显著性的图像质量评价模型本文提出协同超像素和视觉显著性的图像质量评价模型总体结构框架如图1所示,即
|
图 1 所提模型的总体结构框图 Figure 1 The framework of proposed model |
(1) 模型以参考图像与失真图像为输入;
(2) 对输入的图像分别进行YUV颜色空间转换、视觉显著性检测以及超像素生成的预处理;
(3) 根据预处理的结果,分别提取参考图像和失真图像的显著性、亮度、色度和梯度等低层次特征;
(4) 对已提取的特征进行相似性度量,并且根据基于区域梯度一致性参数自适应模型和基于视觉显著性的参数自适应模型对其进行修正,生成局部质量分数;
(5) 以视觉显著谱SM计算加权池中的权值函数;
(6) 对(4)生成的局部质量分数进行加权池化,得出最终的评价分数并且输出。
为了更清楚地说明超像素和视觉显著性在所提及的模型的体现,图中虚线边框表示该部分是由视觉显著性引导计算的,而点划线边框表示该部分是由超像素引导计算的。
图1显示出显著性相似度、超像素亮度和色度相似度、梯度相似度、相似性度量修正模型和池化融合策略的详细计算过程。
1.1 显著性相似度当图像发生超阈值失真会导致图像的视觉显著图产生可测量的变化,因此参考图像和失真图像之间的显著性相似度可用于表征图像的局部质量[15]。基于图论的视觉显著性(Graph Based Visual Saliency, GBVS)模型是一种基于底层视觉特征且拥有较高计算效率的显著性分析模型[17],GBVS首先通过线性滤波和非线性滤波得到特征图M,然后通过马尔科夫链构建激活图
| $ w((g,h),(p,q)) \triangleq d((g,h)\parallel (p,q)) \cdot F((g - p,h - q)) $ | (1) |
其中
| $F(a,b) \triangleq \exp \left( - \frac{{{a^2} + {b^2}}}{{2{\sigma ^2}}}\right)$ | (2) |
式(2)中,
| $d((g,h)\parallel (p,q)) \triangleq \left|\log \frac{{M(g,h)}}{{M(p,q)}}\right|$ | (3) |
式(3)中,
将图
本文使用上述模型对参考图像和失真图像进行显著性特征提取,分别得到参考图像的显著性图谱和失真图像的显著性图谱,然后通过式(4)来计算参考图像和失真图像之间的显著性相似度。
| ${S_{{\rm{VS}}}}(i) = \frac{{2{\rm{V}}{{\rm{S}}_r}(i){\rm{V}}{{\rm{S}}_d}(i) + {T_1}}}{{{\rm{VS}}_r^2(i) + {\rm{VS}}_d^2(i) + {T_1}}}$ | (4) |
其中,
基于简单线性迭代聚类的(Simple Linear Iterative Clustering, SLIC)[18]方法对图像边界有较好的依从性。本文所提出的方法需要对参考图像和失真图像都进行超像素分割,但是对于失真图像,由于图像颜色和纹理等细节受到失真影响,不宜进行超像素分割,因此直接套用参考图像的SLIC超像素分割结果。换言之,参考图像和失真图像的超像素分割结果是一致的[14]。
由于RGB彩色空间不能直观地表现图像的亮度和图像色彩的饱和度,为了更好地评估失真的图像,将图像转换为更接近人类视觉感知特性的YUV色彩空间。在YUV彩色空间中,Y表示图像亮度,用于计算图像结构畸变引起的图像失真。而U和V表示色差,用于计算由颜色引起的图像失真。
通过上述超像素生成策略获得参考图像与失真图像的超像素图后,使用Y分量,将每个超像素区域中所有的像素值都设为该区域的平均亮度,如式(5)所示。
| $ L(i)=\frac{1}{\left|{S}_{j}\right|}{\displaystyle \sum _{i\in {S}_{j}}Y(i)}$ | (5) |
其中,
| ${{\rm{S}}_L}(i) = \frac{{2{L_r}(i){L_d}(i) + {T_2}}}{{L_r^2(i) + L_d^2(i) + {T_2}}}$ | (6) |
其中,
与(5)和(6)两个步骤类似,可以推导出色差相似度
| ${S_C}(i) = {S_U}(i){S_V}(i)$ | (7) |
最后超像素亮度和色度相似性
| ${S_{{\rm{sp}}}}(i) = {[{S_L}(i)]^\alpha }{{\rm{e}}^{\beta ({S_C}(i) - 1)}}$ | (8) |
图像梯度不仅可以用于反映结构特征,而且对于图像的质量有着良好的指示作用。目前图像梯度检测算法是通过以梯度算子进行卷积计算实现,常用算子包括Sobel算子、Prewitt算子和Scharr算子,而在文献[8, 19-20]中讨论了的Scharr算子对于IQA模型有较好的效果。因此本模型采用Scharr算子对图像的梯度进行提取,水平方向的梯度值
| ${G_H}(i) = \frac{1}{{16}}\left[ {\begin{array}{*{20}{c}} 3&0&{ - 3} \\ {10}&0&{ - 10} \\ 3&0&{ - 3} \end{array}} \right] \otimes Y(i)$ | (9) |
| ${G_V}(i) = \frac{1}{{16}}\left[ {\begin{array}{*{20}{c}} 3&{10}&3 \\ 0&0&0 \\ { - 3}&{ - 10}&{ - 3} \end{array}} \right] \otimes Y(i)$ | (10) |
其中
| ${\rm{GM}}(i) = \sqrt {{G_H}{{(i)}^2} + {G_V}{{(i)}^2}} $ | (11) |
最后分别对参考图像和失真图像计算得到梯度幅值,通过式(12)计算结构相似度。
| ${S_{{\rm{GM}}}}(i) = \frac{{2{\rm{G}}{{\rm{M}}_r}(i){\rm{G}}{{\rm{M}}_d}(i) + {T_3}}}{{{\rm{GM}}_r^2(i) + {\rm{GM}}_d^2(i) + {T_3}}}$ | (12) |
其中
人类注意力机制作为HVS的感知特征之一,使得人类感知过程中对图像不同区域给予的关注程度不同,因此当图像显著性较强区域发生失真时,HVS更易于感知到失真;而当失真发生在显著性较弱区域时,HVS则不易感知到失真。高等[21]认为,HVS感知到局部图像质量退化由客观退化程度和图像的视觉显著性共同决定,提出利用显著性自适应地调节局部图像质量的计算。他们利用图像的边界强度构造图像的视觉显著性,然后对图像的边界强度特征相似性进行自适应修正。本文所提出的评价方法,对这项工作进行了改进。由于图像的视觉显著性受多方面的影响,如图像的亮度、颜色和边缘轮廓,而以边界强度构造的视觉显著性仅能表示图像边缘轮廓单一方面的显著性。因此使用GBVS视觉显著性检测模型构造图像的视觉显著性,并将其对评价方法中的显著性相似度的参数
| ${T_1} = K \cdot {{\rm{e}}^{ - \tfrac{{V(i)}}{h}}}$ | (13) |
| $V(i) = \max ({\rm{V}}{{\rm{S}}_r}(i),{\rm{V}}{{\rm{S}}_d}(i))$ | (14) |
其中
| ${S_{{\rm{VS}}}}(i) = \frac{{2{\rm{V}}{{\rm{S}}_r}(i){\rm{V}}{{\rm{S}}_d}(i) + K \cdot {{{\rm{exp}}\left[ - \dfrac{{\max ({\rm{V}}{{\rm{S}}_r}(i),{\rm{V}}{{\rm{S}}_d}(i))}}{h}\right]}}}}{{{\rm{VS}}_r^2(i) + {\rm{VS}}_d^2(i) + K \cdot {{{\rm{exp}}\left[ - \dfrac{{\max ({\rm{V}}{{\rm{S}}_r}(i),{\rm{V}}{{\rm{S}}_d}(i))}}{h}\right]}}}}$ | (15) |
因为
另一方面,当HVS感知图像时,像素整体(图像区域)传达的信息比单个像素传达的信息更为关键。因此文献[14]提出了基于区域梯度一致性参数自适应模型。他们认为如果图像梯度以相似的趋势变化,则预测的图像质量趋于良好,因此将区域梯度比较纳入IQA模型中可以提高其性能。在本模型中,同样地使用了基于区域梯度一致性的参数自适应模型。参考图像和失真图像中超像素区域的区域梯度一致性(Region Gradient Consistency, RGC)和区域梯度的增减性(Increase or Decrease of Gradient, IDG)使得上述
通过综合显著性相似度、超像素亮度和色度相似度以及梯度相似度,最终协同超像素和视觉显著性双重策略的图像质量评价分数由式(16)给出。
| ${\rm{Score}} = \frac{{\displaystyle\sum\nolimits_{i = 1}^N {{S_{\rm{VS}}}(i) \cdot {S_{{\rm{sp}}}}(i) \cdot {S_{{\rm{GM}}}}(i) \cdot \omega (i)} }}{{\displaystyle\sum\nolimits_{i = 1}^N {\omega (i)} }}$ | (16) |
| $\omega (i) = \max ({\rm{V}}{{\rm{S}}_r}(i),{\rm{V}}{{\rm{S}}_d}(i))$ | (17) |
其中
当前在IQA领域中主流的基准图像数据库为TID2013、TID2008、CSIQ、LIVE、IVC、ToyamaMICT、CornellA57和WIQ,但它们在参考图像和失真图像的数量、失真的类型、观察员的数目以及图像类型上存在较大的差异。其中TID2013、TID2008、CSIQ和LIVE这4个图像数据库在图像的失真类型、失真图像数量上相对丰富与全面,因此在这4个图像数据库中对本文所提出的评价模型进行性能验证。
选用的定量测试评价结果的指标是公认度和引用次数较多的Spearman等级相关系数(Spearman Rank Order Correlation Coefficient, SROCC)、Kendall等级相关系数(Kendall's Rank Order Correlation Coefficient)、Pearson线性相关系数(Pearson's Linear Correlation Coefficient, PLCC)以及均方根误差(Root Mean Square Error, RMSE)。其中SROCC和KROCC表示预测的单调性,可以使用IQA方法的主观评分和客观评分直接计算。而PLCC和RMSE表示预测的精度,在计算这2个指标之前,需要进行回归分析,以获得客观评分和主观平均意见评分(Mean Opinion Score, MOS)之间的非线性映射。经过非线性回归后,根据客观评分的非线性映射得分和主观平均意见得分(MOS)计算得出PLCC和RMSE。采用文献[8]中建议的非线性逻辑回归模型,见式(18)。
| $f(x) = {\beta _1}\left(\frac{1}{2} - \frac{1}{{1 + {{\rm{e}}\;^{{\beta _2}(x - {\beta _3})}}}}\right) + {\beta _4}x + {\beta _5}$ | (18) |
式中,
本文的模型需要的实验参数分别有:式(8)中调整超像素色度相似度和亮度相似度的
表1分别选取当前具有代表性的IQA方法与本文所提出的评价方法进行比较。用于对比的方法包括传统的IQA指标SSIM[8]、MSSSIM[9]、FSIMc[11],以及采用视觉显著性作为评价策略的VSI[15],采用超像素作为评价策略的SPSIM[14],还有近年提出的CAGS(2020)[22]。为了更加直观地表现出各种IQA指数的性能表现,每个指标中性能排列在前三的值都以粗体表示。除此之外,4个数据库的SROCC,KROCC和PLCC的加权平均结果也如表1所示,其中用于加权平均的权值是由每个数据库中所包含失真图像的数量决定的。
| 表 1 不同IQA方法在4个基准数据库中的性能表现 Table 1 Performance of different IQA methods in four benchmark databases |
从对比结果可以看出,本文方法在4个基准数据库中均获得前三名。在CSIQ、TID2008和TID2013这几个失真图像数目最多的数据库中,本文方法的各项指标的性能表现均优于表中的IQA方法,同时该方法还是3个指标的加权平均值的第一名,这表明本文的评价结果更具有通用性与有效性。相比较而言,尽管CAGS与FSIMc分别在LIVE数据库中获得最高的客观评价值,但是他们在TID2008和TID2103这两个具有较多的图像总数和失真类型的图库上评价性能的排名没能进入前三。另外,本文所提出的方法在评价以上4个图库的图像质量时,其性能都超越了基于显著性的VSI与基于超像素的SPSIM。这验证了协同超像素和视觉显著性的双重策略对于IQA算法性能提升的有效性,本文方法能够在客观评估上实现更高的一致性。
2.3 所提模型针对单一失真类型评价性能的比较由于在TID2013基准图像数据库中,已经涵盖了LIVE、CSIQ、TID2008数据库中绝大多数的失真类型,并且在TID2013中有更多的图像失真类型和失真图像数目。因此,为了更全面且高效地评估IQA方法对于单一失真类型的性能表现,在本实验中,分别使用IQA方法评估TID2013这个基准图像数据库中24组特定类型的失真。使用SROCC作为IQA方法性能评价指标,因为其不受拟合结果的影响,表2显示了不同IQA方法对不同的失真类型的SROCC值。
| 表 2 IQA算法对TID2013中失真类型的SROCC值 Table 2 SROCC values of IQA for each type of distortions in TID2013 |
表2中灰色填充表示该方法SROCC评价值低于表中方法对于该失真类型的平均值。从表中结果可以看出,对比各个方法所包含灰色填充格的个数,其中SSIM和MSSSIM为20个,FSIMc为10个,CAGS为8个,SPSIM为5个,而本文方法与VSI在25种失真类型之中仅含4个灰色填充格。这表示在失真图片较多,失真类型全面的TID2013基准数据库中,在面对多种不同的失真类型时,本文方法能获得准确的评价结果,且结果波动小、性能稳定,表现出较强的准确性和通用性。
3 结语本文考虑到人类注意力机制和超像素有利于图像局部特征的提取,提出协同超像素和视觉显著性双重策略的图像质量评价方法。该方法在视觉上有意义的超像素区域中提取图像局部特征信息,通过视觉显著性加权局部质量评分模拟人类注意力机制得到全局的质量评价分数。在LIVE、CSIQ、TID2008和TID2013图像库中大量的实验结果表明,与主流方法相比,本文方法的评价结果能更好地模拟人类视觉的感知特性,获得与主观评价更高的一致性。
| [1] |
WANG Z, BOVIK A C. Modern image quality assessment[M]. New York: Morgan and Claypool Publishing Company, 2006.
|
| [2] |
褚江, 陈强, 杨曦晨. 全参考图像质量评价综述[J].
计算机应用研究, 2014, 31(1): 13-22.
CHU J, CHEN Q, YANG X C. Review on full reference image quality assessment algorithms[J]. Application Research of Computers, 2014, 31(1): 13-22. DOI: 10.3969/j.issn.1001-3695.2014.01.003. |
| [3] |
WANG Z, BOVIK A C. Mean squared error: love it or leave it?[J].
IEEE Signal Processing Magazine, 2009, 26(1): 98-17.
DOI: 10.1109/MSP.2008.930649. |
| [4] |
高方远, 何立火. 基于深度网络和视觉特性的无参考图像质量评价方法[J].
南京师大学报(自然科学版), 2019, 42(3): 20-26.
GAO F Y, HE L H. No-reference image quality assessment based on deep network and visual characteristics[J]. Journal of Nanjing Normal University(Natural Science Edition), 2019, 42(3): 20-26. |
| [5] |
马华林, 张立燕. 基于人眼感知的无参考色调映射图像质量评价[J].
计算机应用与软件, 2020, 37(7): 158-164.
MA H L, ZHANG L Y. No-reference Tone-mapper image quality assessment based on human eye perception[J]. Computer Applications and Software, 2020, 37(7): 158-164. DOI: 10.3969/j.issn.1000-386x.2020.07.026. |
| [6] |
崔力. 基于多特征相似性融合的半参考图像质量评价[J].
陕西科技大学学报, 2019, 37(6): 160-164.
CUI L. Reduced-reference image quality assessment base on multi-feature similarity fusion[J]. Journal of Shanxi University of Science & Technology, 2019, 37(6): 160-164. DOI: 10.3969/j.issn.1000-5811.2019.06.027. |
| [7] |
吴世海, 鲍义东, 陈果, 等. 基于随机Gabor特征的半参考农作物图像质量评价方法[J].
计算机与现代化, 2020(5): 70-74.
WU S H, BAO Y D, CHEN G, et al. Reduced-reference crop image quality assessment based on random Gabor feature[J]. Computer and Modernization, 2020(5): 70-74. DOI: 10.3969/j.issn.1006-2475.2020.05.012. |
| [8] |
WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J].
IEEE Transactions on Image Processing, 2004, 13(4): 600-612.
DOI: 10.1109/TIP.2003.819861. |
| [9] |
WANG Z, SIMONCELLI E P, BOVIK A C. Multi-scale structural similarity for image quality assessment[C]//The Thirty-Seventh Asilomar Conference on Signals, Systems and Computers. Pacific Grove, CA: IEEE Signal Processing Society, 2003: 1398-1402.
|
| [10] |
WANG Z, LI Q. Information content weighting for perceptual image quality assessment[J].
IEEE Transaction on Image Processing, 2011, 20(5): 1185-1198.
DOI: 10.1109/TIP.2010.2092435. |
| [11] |
ZHANG L, ZHANG L, MOU X Q, et al. FSIM: a feature similarity index for image quality assessment[J].
IEEE Transaction on Image Processing, 2011, 20(8): 2378-2386.
DOI: 10.1109/TIP.2011.2109730. |
| [12] |
LARSON E C, CHANDLER D M. Most apparent distortion: full-reference image quality assessment and the role of strategy[J].
Journal of Electronic Imaging, 2010, 19(1): 011006.
DOI: 10.1117/1.3267105. |
| [13] |
XUE W F, ZHANG L, MOU X Q, et al. Gradient magnitude similarity deviation: a highly efficient perceptual image quality index[J].
IEEE Transaction on Image Processing, 2014, 23(2): 684-695.
DOI: 10.1109/TIP.2013.2293423. |
| [14] |
SUN W, LIAO Q M, XUE J H, et al. SPSIM: a superpixel-based similarity index for full-reference image Quality Assessment[J].
IEEE Transaction on Image Processing, 2018, 27(9): 4232-4244.
DOI: 10.1109/TIP.2018.2837341. |
| [15] |
ZHANG L, SHEN Y, LI H Y. VSI: a visual saliency-induced index for perceptual image quality assessment[J].
IEEE Transaction on Image Processing, 2014, 23(10): 4270-4281.
DOI: 10.1109/TIP.2014.2346028. |
| [16] |
高俊艳, 刘文印, 杨振国. 结合注意力与特征融合的目标跟踪[J].
广东工业大学学报, 2019, 36(4): 18-23.
GAO J Y, LIU W Y, YAN Z G. Object tracking combined with attention and feature fusion[J]. Journal of Guangdong University of Technology, 2019, 36(4): 18-23. DOI: 10.12052/gdutxb.190039. |
| [17] |
HAREL J, KOCH C, PERONA P. Graph-based visual saliency[C]//Proceedings of the 2006 Conference. Advances in Neural Information Processing Systems 19. Vancouver: MIT Press, 2007: 545-552.
|
| [18] |
ACHANTA R, SHAJI A, SMITH K et al. SLIC superpixels compared to state-of-the-art superpixel methods[J].
IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2281.
DOI: 10.1109/TPAMI.2012.120. |
| [19] |
ZHANG X D, FENG X C, WANG W W et al. Edge strength similarity for image quality assessment[J].
IEEE Signal Processing Letters, 2013, 20(4): 319-322.
DOI: 10.1109/LSP.2013.2244081. |
| [20] |
高敏娟, 党宏社, 魏立力, 等. 结合全局与局部变化的图像质量评价[J].
自动化学报, 2020, 46(12): 1-10;.
GAO M J, DANG H S, WEI L L et al. Combining global and local variation for image quality assessment[J]. Acta Automatica Sinica, 2020, 46(12): 1-10;. |
| [21] |
高敏娟, 党宏社, 魏立力, 等. 视觉显著性引导的局部图像质量度量[J].
中国科学: 技术科学, 2019, 49(11): 1350-1360.
GAO M J, DANG H S, WEI L L, et al. Visual saliency induced local image quality metrics[J]. Scientia Sinica (Technological), 2019, 49(11): 1350-1360. |
| [22] |
史晨阳, 林燕丹. 基于图像色貌和梯度特征的图像质量客观评价[J].
物理学报, 2020, 69(22): 401-41.
SHI C Y, LIN Y D. Objective image quality assessment based on image color appearance and gradient features[J]. Acta Physica Sinica, 2020, 69(22): 401-41. |
2021, Vol. 38

