文章来源:计算机书童。
你是否遇到过这样的尴尬:拍了一张超美的风景照,却因为手一抖变成了模糊的“抽象画”?或者珍藏的老照片因为年代久远,细节早已模糊不清?图像去模糊技术就是为解决这些问题而生的,但传统方法要么恢复效果差,要么处理速度慢。
今天要给大家介绍一篇TCSVT 2025的最新研究——《Efficient Non-Blind Image Deblurring With Discriminative Shrinkage Deep Networks》,研究者们提出了一种叫DSDNet的新模型,把非盲图像去模糊的效果和效率都提升到了新高度!
论文信息 题目:Efficient Non-Blind Image Deblurring With Discriminative Shrinkage Deep Networks 高效的基于判别收缩深度网络的非盲图像去模糊 作者:Pin-Hung Kuo、Jinshan Pan、Shao-Yi Chien、Ming-Hsuan Yang 为什么图像去模糊这么难?
在聊新方法之前,先说说非盲去模糊的“痛点”。非盲去模糊是指已知模糊核(可以理解为“模糊的原因”)的情况下,从模糊图像恢复清晰图像。这个过程就像解一道复杂的数学题,需要平衡两个关键部分:
数据项 :保证恢复的图像和原始模糊图像“对得上”
正则化项 :让恢复的图像符合自然图像的规律(比如不能太离谱)
传统方法要么靠人工设计这两个部分的规则,效果有限;要么用深度学习但忽略了反卷积子问题,导致恢复不彻底。更麻烦的是,常用的FFT方法会产生“振铃伪影”(就像图像周围有波纹),而共轭梯度法(CG)又特别慢,训练模型时能急死人!
DSDNet:把复杂问题“打包”解决
研究者们提出的判别收缩深度网络(DSDNet),最大的亮点就是把所有难题整合到一个端到端的网络里,让机器自己学怎么去模糊。先来看一张总体结构图,一目了然:
DSDNet用了一种叫Maxout层的结构,专门学“收缩函数”。简单说,这个函数能像“智能橡皮擦”一样,自动去掉图像里的模糊成分——小的噪声信号直接抹掉,重要的细节保留并增强。
和传统的手工设计函数相比,Maxout层就像给网络装了个“万能工具包”,能适应各种不同的模糊情况。实验显示,这个设计让PSNR(衡量图像质量的指标)直接提升了0.4dB,效果立竿见影!
核心创新点二:KryNet反卷积网络,又快又好
解决反卷积子问题时,研究者们祭出了大招——KryNet。这个子网络基于Krylov子空间方法设计,理论基础扎实,完美避开了FFT和CG的坑:
没有FFT那种讨厌的振铃伪影
比CG快得多,训练时更稳定
全卷积设计,能端到端训练
看看下面的对比图,KryNet在恢复细节时简直是“火眼金睛”:
(BSD100数据集上的效果:上两行3%噪声,下两行5%噪声,红框处DSDNet完美恢复了辐条细节)
核心创新点三:细节优化,效率拉满
除了大框架,研究者们还做了不少“小改进”,让模型又轻又快:
权重共享 :不同阶段共享参数,参数减少58%,计算量降33%,但性能几乎没损失
门控架构 :用更智能的门控前馈网络替代传统ReLU,特征提取能力更强
失真损失函数 :不仅让恢复的图像像“标准答案”,还让它经过模糊后能还原成输入,相当于给模型加了“双保险”
说了这么多,效果到底怎么样?看数据说话:
定量指标全面领先
在LEVIN、BSD100等多个权威数据集上,DSDNet的PSNR、SSIM等指标都是第一名。特别是在噪声较多的情况下(比如5%噪声),优势更明显。
(LAI数据集上的表现,DSDNet在多类图像中都是最优)
视觉效果惊艳
光看数字不够,直接看图:
在LAI数据集的测试中,其他方法都没能恢复绿色框里的纹理,只有DSDNet做到了:
真实模糊图像(PAN数据集)上,DSDNet恢复的字母边缘更清晰:
模型效率同样出色:
DSDNet+E(高效版)是所有方法中速度最快的
DSDNet+P(性能版)效果比SVMAP好,速度却快一倍多
参数量和计算量远低于同类方法
(左图:相同计算量下PSNR最高;右图:相同效果下速度最快)
一点小遗憾
当然,DSDNet也不是万能的。面对严重过曝或欠曝的图像(比如强光下的照片),恢复效果会打折扣,容易产生伪影。不过研究者们表示,这也是未来改进的方向。
总结
这篇论文提出的DSDNet,通过整合判别收缩函数、KryNet反卷积网络和多项优化设计,让非盲图像去模糊在效果和效率上都实现了突破。无论是手机拍照的手抖模糊,还是老照片修复,都有望从中受益。
如果你也对图像恢复感兴趣,不妨去看看论文原文(附链接:https://setsunil.github.io/DSD/),里面有更多技术细节和实验结果
热门跟贴