Events-to-Video: Bringing Modern Computer Vision to Event Cameras

2023-10-31 12:40

本文主要是介绍Events-to-Video: Bringing Modern Computer Vision to Event Cameras,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Events-to-Video: Bringing Modern Computer Vision to Event Cameras

摘要

  1. 事件相机具有诸多优点,但其生成的数据流无法直接应用于传统视觉网络。
  2. 提出了一种能从事件数据进行视频重建的视觉策略,并应用于后续的视觉任务。

Introduction

  1. 这里列举了事件相机的优点,后续笔锋一转,就开始讲当前研究的困境。
  2. 困境是因为事件相机无法直接用传统网络,且之前的一些工作比如事件帧或者时间表面等图像都不是自然图像。这就引出了本文的工作内容:利用事件相机做自然图像重建,进而就能应用于现成的(off-the-shelf)视觉模型。
  3. 主要贡献:
    1)一个基于事件数据的递归神经网络。
    2)模拟事件生成并用于网络训练。
    3)可用于物体分类和视觉里程计等任务

Realted Work

  1. 因为本文做的事情是Event-To-Video,所以上来讲讲了一下static scene,抛砖引玉。这部分提到的 Asynchronous, photometric feature tracking using events and frames 比较有开创性,大致想法是用亮度增量图像来做跟踪,假设在很小的事件范围 Δ t \Delta t Δt内,亮度增量是由像素移动引起的,则增量公式和移动公式就能联系起来,frame的光流、梯度和事件积分就能等价了。
  2. 第二段开始谈时间到视频的建模,这里的topic主要是说做视频的话可以重建任意时刻的灰度帧。这里作者提到了一个事情,就是大多数基于时间的视频重建都是直接由事件积分得来的,这样的做法会不可避免的遭遇边缘模糊和鬼影等类型的噪声,这是事件相机激发阈值设置的问题,也就是说传统做法无法解决。
  3. 第三段就开始引出深度学习的做法,提到了一个06年的工作,利用字典学习从模拟的事件数据中得到局部的像素梯度,并利用泊松积分来重建强度图像。本文的改进是不再使用局部窗口,而是一次生成整张强度图像。

Video Reconstuction Approach

  1. 这里介绍了文章的整体思路,下面的流程图展示了模型的机制,这里的 K K K e N k e^k_N eNk都是固定值,可以提前设置。为了方便理解,所以设置成了 N = 7 N=7 N=7,实际上 N N N的取值远远要大于7,下文中给出的值是25000。
    流程图
  2. 训练模型需要大量的事件点和自然图像,但是现有的事件数据集无法提供众多的frame作为groundtruth,这里文章的想法是利用现有的事件生成器ESIM在原有的视觉数据集上进行部署
  3. 训练阶段使用UNet架构来进行图像重建,并利用递归网络来重复UNet的训练过程,这里的递归网络应该是LSTM。

这篇关于Events-to-Video: Bringing Modern Computer Vision to Event Cameras的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/315422

相关文章

Apple quietly slips WebRTC audio, video into Safari's WebKit spec

转自:http://www.zdnet.com/article/apple-quietly-slips-webrtc-audio-video-into-safaris-webkit-spec/?from=timeline&isappinstalled=0 http://www.zdnet.com/article/apple-quietly-slips-webrtc-audio-video-

MonoHuman: Animatable Human Neural Field from Monocular Video 翻译

MonoHuman:来自单目视频的可动画人类神经场 摘要。利用自由视图控制来动画化虚拟化身对于诸如虚拟现实和数字娱乐之类的各种应用来说是至关重要的。已有的研究试图利用神经辐射场(NeRF)的表征能力从单目视频中重建人体。最近的工作提出将变形网络移植到NeRF中,以进一步模拟人类神经场的动力学,从而动画化逼真的人类运动。然而,这种流水线要么依赖于姿态相关的表示,要么由于帧无关的优化而缺乏运动一致性

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes 优势 1、构建了一个用于监督原始视频去噪的基准数据集。为了多次捕捉瞬间,我们手动为对象s创建运动。在高ISO模式下捕获每一时刻的噪声帧,并通过对多个噪声帧进行平均得到相应的干净帧。 2、有效的原始视频去噪网络(RViDeNet),通过探

fetch-event-source 如何通过script全局引入

fetchEventSource源码中导出了两种类型的包cjs和esm。但是有个需求如何在原生是js中通过script标签引呢?需要加上type=module。今天介绍另一种方法 下载源码文件: https://github.com/Azure/fetch-event-source.git 安装: npm install --save-dev webpack webpack-cli ts

HumanNeRF:Free-viewpoint Rendering of Moving People from Monocular Video 翻译

HumanNeRF:单目视频中运动人物的自由视点绘制 引言。我们介绍了一种自由视点渲染方法- HumanNeRF -它适用于一个给定的单眼视频ofa人类执行复杂的身体运动,例如,从YouTube的视频。我们的方法可以在任何帧暂停视频,并从任意新的摄像机视点或甚至针对该特定帧和身体姿势的完整360度摄像机路径渲染主体。这项任务特别具有挑战性,因为它需要合成身体的照片级真实感细节,如从输入视频中可能

Computer Exercise

每日一练 单选题 在计算机机箱前面板接口插针上(     C   )表示复位开关。 A.SPK    B.PWRLED    C.RESET    D.HDDLED每台PC机最多可接(     B   )块IDE硬盘。 A.2    B.4    C.6    D.8(     B   )拓扑结构由连接成封闭回路的网络结点组成的,每一结点与它左右相邻的结点连接。 A.总线型    B

myEclipse失去焦点时报错Unhandled event loop exception的解决方案

一句话:百度杀毒惹的祸。。。。果断卸载后问题解决。

复盘高质量Vision Pro沉浸式视频的制作流程与工具

在探索虚拟现实(VR)和增强现实(AR)技术的过程中,高质量的沉浸式体验是至关重要的。最近,国外开发者Dreamwieber在其作品中展示了如何使用一系列工具和技术,创造出令人震撼的Vision Pro沉浸式视频。本文将详细复盘Dreamwieber的工作流,希望能为从事相关领域的开发者们提供有价值的参考。 一、步骤和工作流 构建基础原型 目的:快速搭建起一个基本的模型,以便在设备

WebAPI(二)、DOM事件监听、事件对象event、事件流、事件委托、页面加载与滚动事件、页面尺寸事件

文章目录 一、 DOM事件1. 事件监听2. 事件类型(1)、鼠标事件(2)、焦点事件(3)、键盘事件(4)、文本事件 3. 事件对象(1)、获取事件对象(2)、事件对象常用属性 4. 环境对象 this5. 回调函数 二、 DOM事件进阶1. 事件流(1)、 捕获阶段(2)、 冒泡阶段(3)、 阻止冒泡(4) 、阻止元素默认行为(5) 、解绑事件 2. 事件委托3. 其他事件(1)、页面加

鸿蒙轻内核M核源码分析系列十二 事件Event

往期知识点记录: 鸿蒙(HarmonyOS)应用层开发(北向)知识点汇总 轻内核M核源码分析系列一 数据结构-双向循环链表 轻内核M核源码分析系列二 数据结构-任务就绪队列 鸿蒙轻内核M核源码分析系列三 数据结构-任务排序链表 轻内核M核源码分析系列四 中断Hwi 轻内核M核源码分析系列五 时间管理 轻内核M核源码分析系列六 任务及任务调度(1)任务栈 轻内核M核源码分析系列六 任务及任务调度