CVPR 2018:Image Correction via Deep Reciprocating HDR Transformation -- 论文笔记

本文主要是介绍CVPR 2018:Image Correction via Deep Reciprocating HDR Transformation -- 论文笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

CVPR 2018: Image Correction via Deep Reciprocating HDR Transformation 来自大连理工大学,香港城市大学和腾讯AI lab。

论文下载: https://arxiv.org/abs/1804.04371

论文根据相机成像的过程,提出了往复式HDR的思想,用于恢复过曝光或欠曝光图像在图像恢复(image correction)过程中易丢失的细节。

图像恢复问题可以追溯到CCDs的发明,CCDS中存在半导体,使得自然场景图和成像像素之间存在着非线性的关系,而这个非线性关系通常通过gamma校正得到。

相机成像过程如下图,相机响应函数CRF,曝光时间 t,自然场景S:    

在曝光度不恰当时,就会出现过曝或者欠曝的情况:下图分别表示欠曝、正常曝光、过曝和合成HDR。



目前存在许多图像修复方法不能很好地恢复过曝欠曝下图像的细节信息:如下图,要么亮度不合适,要么细节恢复能力很差。


下图表示图像形成过程,相机先获取场景然后tone mapping到LDR域。据此,作者提出了一种新的图像恢复方法:先将LDR域图像转至HDR域图像,以此得到更为丰富的细节信息;再将HDR域图像恢复至LDR域图像,利用HDR域所带有的细节信息。而目前存在的绝大部分的方法都只是在LDR域进行图像的恢复问题。


论文的整个pipeline:两个相似的encoder-decoder网络结构,前半部用于恢复HDR域的细节信息,后半部用于HDR到LDR域的转换。整个过程用公式表达为 :  ;S^ 和 I^ldr 分别表示重建HDR数据和生成的LDR图像。前半个子网络中加入不仅在相对应的encoder-decoder层之间加入skip connection,还在输入输出的位置添加skip connection,和残差学习很类似,由此前半子网络并不生成整个HDR图像,而是学习输入和输出差值。前半子网络的损失函数:,Y表示GT HDR,对Y进行了公式中的操作(将HDR域降到LDR域)。后半子网络结构类似于前半部,论文会对S^进行反gamma校正将S^转至HDR域得到S^full,由此将 --> δ 是一个小常数又来移除零域。取log来压缩HDR域值,同时能保证一定强度大小。损失函数:。  论文预先训练前半个子网络,然后加入整个网络进行端到端的训练(ε设置为0,即前半子网络没有被再次训练)。同时在end-to-end训练中,后半子网络采用逐层训练(hierarchical supervision),即先训练encoder和第一个decoder层,而将其他的decoder层冻结(应该是学习率设置为0),之后逐渐加入被冻结的decoder层进行训练。以此达到一个由粗到精的细化训练。


数据集:The city scene panorama dataset. 39,198 训练,1,672 evaluation; The Sun360 outdoor panorama dataset. 6,400 微调;【数据集可能存在不太合理的情况,此类问题的数据集还需要改进】

前半子网络性能分析:下图用来显示重建的HDR和GT 之间的差别(可是论文说不生成HDR图,也许是S^full?),由蓝色到红色表示差别的大小。

                


效果图:




buxile bisaikaishile!   

这篇关于CVPR 2018:Image Correction via Deep Reciprocating HDR Transformation -- 论文笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/266411

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

BUUCTF靶场[web][极客大挑战 2019]Http、[HCTF 2018]admin

目录   [web][极客大挑战 2019]Http 考点:Referer协议、UA协议、X-Forwarded-For协议 [web][HCTF 2018]admin 考点:弱密码字典爆破 四种方法:   [web][极客大挑战 2019]Http 考点:Referer协议、UA协议、X-Forwarded-For协议 访问环境 老规矩,我们先查看源代码

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓