【论文略读40】DnCNNs——经典去噪方法

顺着【论文略读39】与38相关文章中的第二篇,即陈运锦老师的TNRD,找到了这篇文章

文献信息

该文名为Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising,是17年的TIP。所提模型是前向的denoising convolutional neural networks,即DnCNNs

作者是鼎鼎大名的张凯、陈运锦老师、左老师、孟老师、港理工的张磊老师

注:由于先入为主,先看了几篇相关博客,讲得应该都没啥问题。所以就没有再在文章上花太多时间了,只是把实验外的部分读了一遍,没有再去思考什么,谨记于此

文献小结

本文提出模型DnCNNs,针对图像去噪(本文是高斯噪声)问题,采用的网络是端到端学习带噪图和gt之间残差的CNN,其中不仅引入了学习残差的策略,还使用了BN( batch normalization)策略。这样做的动机有以往模型的缺点(见图$(2)$下面)、CNN的良好性质、两种改进策略结合的优势、TNRD的启发,等等

本文除了用大量的实验验证了DnCNNs的性能,还有额外的对比实验,验证了残差学习和BN结合相互促进(或者说辅助)的优势,见原文图$(2)$:

它的优点为何?文章反复强调了以往方法的弱点,包括加深网络后训练难度加大、往往只能针对特定程度的特定噪声等。前者被残差学习加速训练➕BN缓解internal covariate shift(指训练过程中分布变化导致激活后梯度停滞,BN则通过激活前归一化使分布难偏移)以加速收敛给淦了;后者被DnCNNs的拓展模型gank了,借鉴TNRD的思想,对模型进行拓展,可以训练单个DnCNNs,同时解决Gaussian denoising,single image super-resolution和JPEG image deblocking三种问题

本文还有一些技巧,比如感受野和网络深度的选择,与TNRD的比较等,略

最后,本文的作者们表示,更genral的去更general噪的方法是研究的目标,目前来看,unfolding、plug-and-play(即插即用)模块设计等都是研究的方向

参考文献

[1] K. Zhang, W. Zuo, Y. Chen, D. Meng, and L. Zhang. Beyond a gaussian denoiser: Residual learning of deep cnn for image denoising. IEEE Transactions on Image Processing, 26(7):3142–3155, 2017.

1
2
3
4
5
6
7
8
9
10
11
12
@article{RN37,
author = {Zhang, K. and Zuo, W. and Chen, Y. and Meng, D. and Zhang, L.},
title = {Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising},
journal = {IEEE Transactions on Image Processing},
volume = {26},
number = {7},
pages = {3142-3155},
ISSN = {1941-0042},
DOI = {10.1109/TIP.2017.2662206},
year = {2017},
type = {Journal Article}
}

主要参考的博客:

  1. 有重要思考的博客:【图像去噪】DnCNN论文详解(Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising)…
  2. 总结精辟的博客:DnCNN论文阅读笔记【MATLAB】
  3. 纯翻译:Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising
  4. 讲了一点DnCNNs后续发展:基于卷积神经网络的图像去噪