16 天前
TOPIQ:一种从语义到失真信息的自顶向下图像质量评估方法
Chaofeng Chen, Jiadi Mo, Jingwen Hou, Haoning Wu, Liang Liao, Wenxiu Sun, Qiong Yan, Weisi Lin

摘要
图像质量评估(Image Quality Assessment, IQA)是计算机视觉领域的一项基础任务,近年来在深度神经网络的推动下取得了显著进展。受人类视觉系统特性的启发,现有方法通常结合全局与局部表征(即多尺度特征)以实现优异的性能。然而,大多数方法仅采用简单的线性融合方式处理多尺度特征,忽视了不同尺度特征之间潜在的复杂关系与交互作用。相比之下,人类在判断图像质量时,通常先形成整体印象以定位关键区域,随后聚焦于这些区域的局部细节。基于此,我们提出一种自上而下的方法——TOPIQ,该方法利用高层语义信息引导IQA网络关注语义上重要的局部失真区域。我们的方法设计了一种启发式的粗到精网络结构(Coarse-to-Fine Attention Network, CFANet),该网络通过自上而下的方式,利用多尺度特征并逐步将多层级语义信息传播至低层表示。方法的核心组件是所提出的跨尺度注意力机制,该机制基于高层特征为低层特征生成注意力图,从而突出对低层失真具有关键意义的语义区域,显著提升评估性能。CFANet可适用于全参考(Full-Reference, FR)与无参考(No-Reference, NR)图像质量评估任务。我们以ResNet50作为骨干网络,在多个公开的FR与NR基准测试中验证了CFANet的性能。实验结果表明,CFANet在保持优异性能的同时,显著优于或媲美当前基于视觉Transformer的先进方法,且计算效率更高——其浮点运算量(FLOPS)仅为当前最优FR方法的约13%。相关代码已开源,地址为:https://github.com/chaofengc/IQA-PyTorch。