【orbslam2+nerf】

2024-02-12 09:12
文章标签 nerf orbslam2

本文主要是介绍【orbslam2+nerf】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 需要安装

  1. cuda
  2. cudnn
  3. eigen-3.4.0
  4. opencv4.4以上(推荐opencv-4.5.5)
  5. 需要gui,还要安装glfw:
sudo apt-get install libglfw3-dev libgl1-mesa-dev libglu1-mesa-dev libglew-dev

2. run

  1. 下载源码:给你了
  2. 解压Vocabulary
cd Vocabulary
tar zxf ORBvoc.txt.tar.gz
  1. Build with GUI
cmake -B build -DCMAKE_BUILD_TYPE=Release .
cmake --build build --parallel $(nproc --all)

或Build without GUI

cmake -B build -DCMAKE_BUILD_TYPE=Release -DORBEEZ_BUILD_WITH_GUI=OFF .
cmake --build build --parallel $(nproc --all)
  1. 下载数据集TUM fr3/office Dataset
wget https://vision.in.tum.de/rgbd/dataset/freiburg3/rgbd_dataset_freiburg3_long_office_household.tgz --no-check-certificate
tar -xvzf rgbd_dataset_freiburg3_long_office_household.tgz
  1. 运行单目
./build/mono_tum Vocabulary/ORBvoc.txt configs/Monocular/TUM/freiburg3_office.yaml ./rgbd_dataset_freiburg3_long_office_household/

这篇关于【orbslam2+nerf】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/702245

相关文章

NeRF原理学习

一个2020年的工作我现在才来学习并总结它的原理,颇有种“时过境迁”的感觉。这篇总结是基于NeRF原文 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 阅读理解后写的,作用是以后如果记不太清了可以回忆。 目的&应用 先说一下NeRF这个架构的功能是什么。它的主要功能是进行新视角的合成:给定若干张不同视

NeRF——AI生成虚拟3D场景视频

一、NeRF介绍 Neural Radiance Fields (NeRF) 是一种用于3D场景表示和渲染的新兴技术,它通过使用神经网络来模拟和生成逼真的3D场景。NeRF 的主要创新在于它能够从少量的2D图像生成高质量的3D表示,适用于计算机视觉、图形学以及虚拟现实等领域。 二、NeRF基本概念 体积渲染: NeRF 使用体积渲染技术来表示3D场景。体积渲染涉及在3D空间中采样光线,通过

NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 精读

1 传统视图合成和NeRF(Neural Radiance Fields) 1.1 联系 传统视图合成和NeRF的共同目标都是从已有的视角图像中生成新的视角图像。两者都利用已有的多视角图像数据来预测或合成从未见过的视角。 1.2 区别 1.2.1 几何表示方式 传统视图合成:通常使用显式几何模型(如深度图、网格、点云)或其他图像处理方法(如基于图像拼接或光流的方法)来生成新的视图。这些

NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 翻译

NeRF:将场景表示为用于视图合成的神经辐射场 引言。我们提出了一种方法,该方法通过使用稀疏的输入视图集优化底层连续体场景函数来实现用于合成复杂场景的新视图的最新结果。我们的算法使用全连通(非卷积)深度网络来表示场景,其输入是单个连续的5D坐标(空间位置(x,y,z)和观察方向(θ,φ)),其输出是该空间位置处的体积密度和与观察相关的发射辐射。我们通过查询沿着相机光线的5D坐标来合成视图,并使用

NeRF从入门到放弃5: Neurad代码实现细节

Talk is cheap, show me the code。 CNN Decoder 如patch设置为32x32,patch_scale设置为3,则先在原图上采样96x96大小的像素块,然后每隔三个取一个像素,降采样成32x32的块。 用这32x32个像素render feature,再经过CNN反卷积预测出96x96的像素,与真值对比。 def _patches_from_c

NeRF从入门到放弃3: EmerNeRF

https://github.com/NVlabs/EmerNeRF 该方法是Nvidia提出的,其亮点是不需要额外的2D、3Dbox先验,可以自动解耦动静field。 核心思想: 1. 动、静filed都用hash grid编码,动态filed比静态多了时间t,静态的hash编码输入是(x,y,z),动态是(x,y,z,t)。 2. 使用flow融合多帧的特征,预测当前时刻的点的前向和后向的fl

NeRF从入门到放弃2:InstantNGP

原始的NeRF每条光线上的点都要经过MLP的查询,才能得到其密度和颜色值,要查询的点非常多,而MLP的推理是比较耗时的。 InstantNGP将空间划分成多个层级的体素(voxels),并且在每个体素内部使用神经网络来预测feature。 而Plenoxels则干脆就不使用神经网络了,它直接在体素中存储场景的辐射亮度和密度信息。通过使用球谐函数(Spherical Harmonics)来近似每

【机器学习】计算机图形和深度学习模型NeRF详解(1)

1.引言 1.1.1. NeRF研究的背景 人们在拍照的时候,往往会中各个角度进行拍摄,以呈现出物体的全貌和美丽。下图的照片,拍摄的是一架楼梯,但是拍摄的角度完全不同: 我们可以看到这些图片都是楼梯的照片,但拍摄的角度不同。摄影师拍了三张照片,因为他们不确定只用一张照片就能捕捉到这么美丽的场景,担心会错过正确的视角。 于是,人们开始思考,是否存在一种方法,可以让摄影师从拍摄的有限图片中捕获

【机器学习】基于NeRF的3D动画渲染

1.引言 1.1.NeRF框架简介 1.1.1. 什么是NeRF框架 NeRF框架,全称为神经辐射场(Neural Radiance Fields)框架,是一个基于深度学习的三维场景重建和渲染技术。 基本概念: NeRF利用全连接神经网络(又称多层感知机MLP)的权重来表示3D场景。它基于辐射场概念、光线可逆及相机成像原理,通过二维图像来重建和渲染三维场景。 工作原理: NeRF从一

Ubuntu20.04配置ORBSLAM2并在kitti数据集序列进行实验

一、ORB-SLAM2 安装和编译 1.ORB-SLAM2下载 用以下命令在终端上下载 git clone https://github.com/raulmur/ORB_SLAM2 2.安装Pangolin 在下载了ZIP压缩包后解压缩放在ubantu的/home下(此处只要是英文路径都可以),但别急着安装Pangolin我们还需要安装一些必要的库 sudo apt install l