【论文精读】DALE : Dark Region-Aware Low-light Image Enhancement

2023-12-31 03:50

本文主要是介绍【论文精读】DALE : Dark Region-Aware Low-light Image Enhancement,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

出处

2020 BMVC

摘要

本文提出了一种新的微光图像增强方法–暗区域感知微光图像增强(DALE),该方法通过视觉注意模块准确地识别暗区域,并对其亮度进行强化。我们的方法可以有效地利用超像素来估计视觉注意力,而不需要任何复杂的过程。因此,该方法可以保持原始图像的颜色、色调和亮度,并防止图像的正常照明区域饱和和失真。实验结果表明,我们的方法通过所提出的视觉注意准确地识别出暗区域,并且在定性和定量上都优于最先进的方法。

论文贡献

1.提出了一种新的注意力模块来识别暗光区域。使其在保留其他区域亮度的同时,密集地增强暗区域的亮度。
2.提出了一个局部光照数据集。

暗区感知的微光增强网络

所提出的微光增强网络由视觉注意网络和增强网络组成。其中注意网络产生可以识别暗区的注意图,而增强网络输出微光增强的图像。网络的整体架构如图所示:
在这里插入图片描述

视觉注意网络(VAN)

网络构成

VAN采用U-Net结构(即编码器和解码器)作为主干网络。第一卷积层的核大小为3×3,步长为1。编码器有三个卷积层、残差块和两个下采样层,残差块由具有1×1大小的核的卷积层、ReLU和SE块组成,它们具有不同的扩张因子(即3、2和1)。解码器具有三个卷积层、残差块和两个上采样层。残差块使用不同的扩张因子(即1、2和3)。

损失函数

注意图 V A ( I l o c a l ) VA(I_{local}) VA(Ilocal)和真实图像 I V A G T I_{VAGT} IVAGT l 2 l_2 l2损失,公式如下:
L a = ∣ ∣ V A ( I l o c a l ) − I V A G T ∣ ∣ 2 (1) \mathcal{L}_a=||VA(I_{local})-I_{VAGT}||_2\tag{1} La=VA(Ilocal)IVAGT2(1)

其中, I l o c a l I_{local} Ilocal表示具有局部照明区域的低光图像,
感知损失,它在特征层面衡量 V A ( I l o c a l ) VA(I_{local}) VA(Ilocal) I V A G T I_{VAGT} IVAGT之间的相似性。公式如下:
L p = ∣ ∣ ϕ ( V A ( I l o c a l ) + I l o c a l ) − ϕ ( I G T ) ∣ ∣ 1 (2) \mathcal{L}_p=||\phi(VA(I_{local})+I_{local})-\phi(I_{GT})||_1\tag{2} Lp=ϕ(VA(Ilocal)+Ilocal)ϕ(IGT)1(2)
其中, ϕ ( ⋅ ) \phi(\cdot) ϕ()表示的是预先训练的VGG-16网络。
总的损失表示如下:
L V A N = λ 1 L a + λ 2 L p (3) \mathcal{L}_{VAN}=\lambda_1\mathcal{L}_a+\lambda_2\mathcal{L}_p\tag{3} LVAN=λ1La+λ2Lp(3)

增强网络(EN)

所提出的EN使用估计的视觉注意图来增强微光图像的亮度。EN将微光图像和视觉注意图的拼接作为输入。与VAN相似,所有卷积层的核大小均为3×3,步长为1。3个残差块使用从3到1的不同膨胀因子,而我们将所有残差块连接起来进行信息融合。

损失函数

在像素级别上计算微光图像 E N ( I E N ) EN(I_{EN}) EN(IEN)和真实图像 I G T I_{GT} IGT l 2 l_2 l2损失,公式如下:
L e = ∣ ∣ E N ( I E N − I G T ) ∣ ∣ 2 (4) \mathcal{L}_e=||EN(I_{EN}-I_{GT})||_2\tag{4} Le=EN(IENIGT)2(4)
其中 I E N = V A N ( I l o c a l ) + I l o c a l I_{EN}=VAN(I_{local})+I_{local} IEN=VAN(Ilocal)+Ilocal
同时,计算感知损失去衡量 E N ( I E N ) EN(I_{EN}) EN(IEN) I G T I_{GT} IGT之间的相似性。公式如下:
L e p = ∣ ∣ ϕ ( E N ( I E N ) ) − ϕ ( I G T ) ∣ ∣ 1 (5) \mathcal{L}_{ep}=||\phi(EN(I_{EN}))-\phi(I_{GT})||_1\tag{5} Lep=ϕ(EN(IEN))ϕ(IGT)1(5)
总变化损失目的是使输出图像在空间上平滑:
L t v = 1 C H W ∣ ∣ ∇ x E N ( I E N ) + ∇ y E N ( I E N ) ∣ ∣ 2 (6) \mathcal{L}_{tv}=\frac{1}{CHW}||\nabla_xEN(I_{EN})+\nabla_yEN(I_{EN})||^2\tag{6} Ltv=CHW1xEN(IEN)+yEN(IEN)2(6)
最后, E N EN EN的总损失如下:
L E N = λ 1 L e + λ 2 L e p + λ 3 L t v (7) \mathcal{L}_{EN}=\lambda_1\mathcal{L}_e+\lambda_2\mathcal{L}_{ep}+\lambda_3\mathcal{L}_{tv}\tag{7} LEN=λ1Le+λ2Lep+λ3Ltv(7)

这篇关于【论文精读】DALE : Dark Region-Aware Low-light Image Enhancement的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/554868

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

lvgl8.3.6 控件垂直布局 label控件在image控件的下方显示

在使用 LVGL 8.3.6 创建一个垂直布局,其中 label 控件位于 image 控件下方,你可以使用 lv_obj_set_flex_flow 来设置布局为垂直,并确保 label 控件在 image 控件后添加。这里是如何步骤性地实现它的一个基本示例: 创建父容器:首先创建一个容器对象,该对象将作为布局的基础。设置容器为垂直布局:使用 lv_obj_set_flex_flow 设置容器

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需

2024 年高教社杯全国大学生数学建模竞赛 C 题 农作物的种植策略 参考论文 无水印

持续更新中,2024年数学建模比赛思路代码论文都会发布到专栏内,只需订阅一次!  完整论文+代码+数据结果链接在文末!  订阅后可查看参考论文文件 第一问 1.1 问题重述 这个问题围绕的是华北山区的某乡村,在有限的耕地条件下,如何制定最优的农作物种植策略。乡村有 34 块露天耕地和 20 个大棚,种植条件包括粮食作物、蔬菜、水稻和食用菌。除了要考虑地块的面积、种植季节等,还要确保

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes 优势 1、构建了一个用于监督原始视频去噪的基准数据集。为了多次捕捉瞬间,我们手动为对象s创建运动。在高ISO模式下捕获每一时刻的噪声帧,并通过对多个噪声帧进行平均得到相应的干净帧。 2、有效的原始视频去噪网络(RViDeNet),通过探