顺着【论文略读39】与38相关文章中的第二篇,即陈运锦老师的TNRD,找到了这篇文章
文献信息
该文名为Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising,是17年的TIP。所提模型是前向的denoising convolutional neural networks,即DnCNNs
作者是鼎鼎大名的张凯、陈运锦老师、左老师、孟老师、港理工的张磊老师
- 文献地址:https://ieeexplore.ieee.org/abstract/document/7839189 或 https://arxiv.org/abs/1608.03981
- 一作张凯提供的代码:https://github.com/cszn/DnCNN
- 截至2021/03/15,该文在谷歌学术上引用量2868,TNRD的引用量为678,真的迪奥
- 根据参考文献中列出的博客来看,这篇文章可谓是图像去噪中的经典牛文了
注:由于先入为主,先看了几篇相关博客,讲得应该都没啥问题。所以就没有再在文章上花太多时间了,只是把实验外的部分读了一遍,没有再去思考什么,谨记于此
文献小结
本文提出模型DnCNNs,针对图像去噪(本文是高斯噪声)问题,采用的网络是端到端学习带噪图和gt之间残差的CNN,其中不仅引入了学习残差的策略,还使用了BN( batch normalization)策略。这样做的动机有以往模型的缺点(见图$(2)$下面)、CNN的良好性质、两种改进策略结合的优势、TNRD的启发,等等
本文除了用大量的实验验证了DnCNNs的性能,还有额外的对比实验,验证了残差学习和BN结合相互促进(或者说辅助)的优势,见原文图$(2)$:
它的优点为何?文章反复强调了以往方法的弱点,包括加深网络后训练难度加大、往往只能针对特定程度的特定噪声等。前者被残差学习加速训练➕BN缓解internal covariate shift(指训练过程中分布变化导致激活后梯度停滞,BN则通过激活前归一化使分布难偏移)以加速收敛给淦了;后者被DnCNNs的拓展模型gank了,借鉴TNRD的思想,对模型进行拓展,可以训练单个DnCNNs,同时解决Gaussian denoising,single image super-resolution和JPEG image deblocking三种问题
本文还有一些技巧,比如感受野和网络深度的选择,与TNRD的比较等,略
最后,本文的作者们表示,更genral的去更general噪的方法是研究的目标,目前来看,unfolding、plug-and-play(即插即用)模块设计等都是研究的方向
参考文献
[1] K. Zhang, W. Zuo, Y. Chen, D. Meng, and L. Zhang. Beyond a gaussian denoiser: Residual learning of deep cnn for image denoising. IEEE Transactions on Image Processing, 26(7):3142–3155, 2017.
1 | @article{RN37, |
主要参考的博客: