RDGAN Retinex Decomposition Based Adversarial Learning for Low-Light Enhancement(论文阅读笔记)

本文主要是介绍RDGAN Retinex Decomposition Based Adversarial Learning for Low-Light Enhancement(论文阅读笔记),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

RDGAN Retinex Decomposition Based Adversarial Learning for Low-Light Enhancement(论文阅读笔记)

最近学习了一篇论文《RDGAN Retinex Decomposition Based Adversarial Learning for Low-Light Enhancement》,记录一下

概括

在本文提出了一种基于端到端学习的框架,该框架首先对弱光图像进行分解,然后学习融合分解结果,得到高质量的增强结果。框架可以分为用于分解的RDNet (Retinex分解网络)和用于融合的FENet(融合增强网络)。针对这两个网络分别设计了具体的多项损耗。还提出了一种基于视神经分解的生成对抗网络损失算法,该算法是根据对增强图像和参考图像的反射率分量进行分解计算得到的。实验表明,该方法在颜色和细节恢复方面有较好的效果,优于其他最新的方法。

过去的研究

传统的单次微光图像增强方法包括基于直方图的方法、基于去雾的方法和基于视网膜的方法。基于直方图的方法[1]将直方图重新分布到均匀分布,并调整伽马曲线指数。基于去雾的方法[2]利用了弱光增强和去雾在反图像上的相似性。基于retinx的方法[3,4,5,6,7,8,9]通常将弱光图像分解为光照和反射分量,可以重构出更好的增强结果。简单的基于学习的w/o分解的微光增强方法[10,11]限制了增强结果。SID[12]只改进原始图像,不能作为普通sRGB图像的后处理。SICE[13]将低光图像分解为平滑和纹理组件,而不考虑噪声。RetinexNet[14]也学习了Retinex分解,但主要处理分解后的光照,仅使用BM3D[15]去噪分解后的反射率,增强效果不理想。

研究中的不足

大多数基于视神经网络的方法假设在增强过程中,反射率成分保持不变,而不考虑颜色失真和细节丢失。

本文的主要贡献

(1).提出了一种RDNet (Retinex分解网络)将输入的弱光图像分解为光照分量和反射率分量。RDNet训练的多项分解损失,包括四个损失:Liniloss, Lwtvloss, Lcomloss和Lerrloss。与传统方法不同,RDNet可以通过迭代次数直接预测分解结果。
(2).提出了融合增强网络(FENet,融合增强网络),将输入的弱光图像与分解结果相结合,生成最终增强结果,优于其他只处理光照分量的方法。我们采用CRM (Camera Response Model)函数将分解的光照映射到一个粗略的良好曝光结果。
(3).还为FENet提出了一个多期对抗性损失。基于vggr的内容损失保证了感知质量,新的RDGAN损失是根据增强图像和参考图像的分解反射率分量计算的。RDGAN的丢失有助于颜色和细节的.恢复.

具体方法

分解网络

如图1所示,RDNet对于弱光和参考图像的Retinex分解采用了相同的模型权值,其分解结果为ini&inrand LbI& LbR。受[6]启发,在HSV域中用P的V通道初始化估计光照pvv,等于每个像素x上RGB通道的最大值:
在这里插入图片描述
为了融合狭窄的断口并填充轮廓上的间隙,进一步对初始PV应用了形态学上的闭合操作。具体来说,首先执行一个3x3的最大池操作,然后执行另一个最小池操作(逆向图像上的最大池)。有了最终的PV。
将RDNet中的反卷积层替换为最近邻上采样层和3x3卷积层,消除了棋盘效应[16]。考虑负系数,采用PReLU[17]作为激活。
这里贴上作者的源码,里面详细记录了RDNet和FENet的卷积、上采样、池化、全连接的具体操作:

def rdnet(img_v, img, hei, wid, reuse=False):input = tf.concat([img_v, img], -1)with tf.variable_scope('retinex', reuse=reuse):n = InputLayer(input, name='in')n11 = conv_k3(n, 32, name='l1/cv1')n12 = conv_k3(n11, 32, name='l1/cv2')n21 = conv_k3(n12, 64, s=2, name='l2/cv1')n22 = conv_k3(n21, 64, name='l2/cv2')n31 = conv_k3(n22, 128, s=2, name='l3/cv1')n32 = conv_k3(n31, 128, name='l3/cv2')n33 = conv_k3(n32, 128, name='l3/cv3')n34 = conv_k3(n33, 128, name='l3/cv4')n23 = upsample_and_concat(n34, n22, 64, hei // 2, wid // 2, name='l2/cv3')n24 = conv_k3(n23, 64, name='l2/cv4')n24.outputs = tf.image.resize_nearest_neighbor(n24.outputs, [hei, wid])n13 = conv_k3(n24, 32, name='l1/cv3')n14 = conv_k3(n13, 32, name='l1/cv4')n14 = ConcatLayer([n14, n13, n12, n11], -1)n15 = conv_k1(n14, 64, name='l1/cv5')n = conv_k3(n15, 4, act='none', name='out')img_i = tf.expand_dims(tf.sigmoid(n.outputs[:, :, :, 0]), -1)img_r = tf.sigmoid(n.outputs[:, :, :, 1:4])return img_i, img_r
# FENet
def fenet(crm, img, img_r, hei, wid, reuse=False):input = tf.concat([crm, img, img_r], -1)with tf.variable_scope('fusion', reuse=reuse):n = InputLayer(input, name='in')# 两次卷积操作n11 = conv_k3(n, 32, name='l1/cv1')n12 = conv_k3(n11, 32, name='l1/cv2')# 两次卷积操作n21 = conv_k3(n12, 64, s=2, name='l2/cv1')n22 = conv_k3(n21, 64, name='l2/cv2')# 四次卷积操作n31 = conv_k3(n22, 128, s=2, name='l3/cv1')n32 = conv_k3(n31, 128, name='l3/cv2')n33 = conv_k3(n32, 128, name='l3/cv3')n34 = conv_k3(n33, 128, name='l3/cv4')# 上采样和连接n23 = upsample_and_concat(n34, n22, 64, hei // 2, wid // 2, name='l2/cv3')# 两次卷积操作n24 = conv_k3(n23, 128, name='l2/cv4')n25 = conv_k3(n24, 64, name='l2/cv5')# 上采样和连接n13 = upsample_and_concat(n25, n12, 32, hei, wid, name='l1/cv3')# 两次卷积操作n14 = conv_k3(n13, 64, name='l1/cv4')n15 = conv_k3(n14, 64, name='l1/cv5')# 最后一次卷积操作n = conv_k3(n15, 3, act='none', name='out')return n.outputs# 3x3 conv
def conv_k3(x, c, s=1, act='prelu', name=''):if s == 1:n = PadLayer(x, [[0, 0], [1, 1], [1, 1], [0, 0]], 'SYMMETRIC')n = Conv2d(n, c, padding='valid', W_init=w_init, name=name)else:assert s == 2  # stride = 1 or 2n = PadLayer(x, [[0, 0], [1, 0], [1, 0], [0, 0]], 'SYMMETRIC')n = Conv2d(n, c, (3, 3), (2, 2), padding='valid', W_init=w_init, name=name)if act == 'prelu':n = PReluLayer(n, a_init=a_init, name=name + '/pr')elif act == 'lrelu':n.outputs = tf.nn.leaky_relu(n.outputs)elif act == 'relu':n.outputs = tf.nn.relu(n.outputs)return n# 1x1 conv
def conv_k1(x, c, act='none', name=''):n = Conv2d(x, c, (1, 1), W_init=w_init, name=name)if act == 'prelu':n = PReluLayer(n, a_init=a_init, name=name + '/pr')elif act == 'lrelu':n.outputs = tf.nn.leaky_relu(n.outputs)elif act == 'relu':n.outputs = tf.nn.relu(n.outputs)return n# NN + 3x3 conv + concat
def upsample_and_concat(x1, x2, c, hei, wid, act='prelu', name=''):x1.outputs = tf.image.resize_nearest_neighbor(x1.outputs, [hei, wid])n = conv_k3(x1, c, act=act, name=name)n = ConcatLayer([n, x2], -1)return n

融合增强网络

为了简化融合过程,使用[8]中的CRM (Camera Response Model)函数将低光图像分解后的照度映射为一个粗略的良好曝光结果。
由于CRM功能忽略了反射成分,因此还有进一步增强的空间。如图1所示,FENet学会将输入的微光图像、分解的基于光照的CRM[8]结果和分解的反射率相结合,得到最终的增强结果。

对抗增强损失函数

在FENet的预训练过程中,只使用基于VGGbased[18]内容损失,另一方面,对于交替训练过程,提出了一种新的RDGAN损失,它是对增强图像和参考图像分解后的反射率分量计算的对抗式损失。

# weighted TV loss for I
def wtv_loss(img_v, img_i, size):dy = img_i[:, 1:, :, :] - img_i[:, :size - 1, :, :]vdy = img_v[:, 1:, :, :] - img_v[:, :size - 1, :, :]vdy = tf.layers.average_pooling2d(vdy, pool_size=(3, 1), strides=1, padding='SAME') * 3dx = img_i[:, :, 1:, :] - img_i[:, :, :size - 1, :]vdx = img_v[:, :, 1:, :] - img_v[:, :, :size - 1, :]vdx = tf.layers.average_pooling2d(vdx, pool_size=(1, 3), strides=1, padding='SAME') * 3wy = tf.divide(tf.square(dy), tf.abs(vdy) * tf.abs(dy) + 1e-3)wx = tf.divide(tf.square(dx), tf.abs(vdx) * tf.abs(dx) + 1e-3)return tf.reduce_mean(wy) + tf.reduce_mean(wx)

这篇关于RDGAN Retinex Decomposition Based Adversarial Learning for Low-Light Enhancement(论文阅读笔记)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/435026

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit