Building3D An Urban-Scale Dataset and Benchmarks 论文阅读

2024-05-14 20:12

本文主要是介绍Building3D An Urban-Scale Dataset and Benchmarks 论文阅读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章主页

Building3D
在这里插入图片描述

任务

提出了一个城市规模的数据集,由超过 16 万座建筑物以及相应的点云、网格和线框模型组成,覆盖爱沙尼亚的 16 个城市,面积约 998 平方公里。

动机

现有的3D建模数据集主要集中在家具或汽车等常见物体上。缺乏建筑数据集已成为将深度学习技术应用于城市建模等特定领域的主要障碍。

要点

数据集包含原始点云,建筑物点云,屋顶点云,以及网格模型和线框模型。

贡献

Building3D 是第一个也是最大的城市规模建筑建模基准,可以对监督学习方法和自监督学习方法进行比较。

相关工作

只考虑相关的 3D 建模数据集,重点关注基于点云的城市建模数据集。

  • ShapeNet 是目前最流行的用于零件分割、点云补全和重建的 3D 对象数据集之一。
  • RoofN3D 是为 3D 建筑重建而设计的。
  • City3D 是一个大规模建筑重建数据集,由约2万个建筑网格模型和航空LiDAR点云组成。
  • UrbanScene3D 涵盖 10 个合成场景和 6 个真实世界场景。

方法

  • 建筑物点云 原始LiDAR点云由高精度RIEGL VQ-1560i扫描仪在海拔2600米处收集,然后以LAZ格式存储。点云的相对精度为20毫米。点云密度为每平方米30.314点,点到点距离为0.1816m。对于 3D 建筑物重建,删除不相关的点云,仅保留建筑物点云。每个建筑物点云均以 XYZ 格式存储,包括 XYZ 坐标、RGB 颜色、近红外信息、强度和反射率。
  • 屋顶点云 删除所有代表立面的点。基本上,几乎所有立面都垂直于 XY 平面。计算每个网格面的法线,并删除所有法线与 XY 平面平行的网格面,以生成屋顶网格模型。如果一个点到屋顶网格模型的距离在给定阈值内,则该点被分类为屋顶。
  • 网格模型 建筑网格模型是通过使用 Terrasolid 软件进行手动编辑,根据航空 LiDAR 点云和建筑足迹创建的。这些网格模型是典型的 LoD2 模型,包括详细且真实的屋顶表示。
  • 线框模型 计算每个网格的法线。如果两个相邻三角形网格的法线近似平行,则表明它们共面,共享边将被移除。删除所有共享边后,获得具有冗余顶点的粗线框模型。粗线框模型还包含可以合并为长边的短边。最后,通过去除所有冗余顶点并合并短边生成精细线框模型,然后由专业技术人员审核和调整。

实验

评估指标
平均角偏移 (ACO)、精度、召回率和 F1 分数、3D 网格 IoU 和均方根误差 (RMSE)。
ACO 是预测角点和真实角点之间的平均偏移量。
通过混淆矩阵计算角点精度(CP)、边缘精度(EP)、角点召回率(CR)和边缘召回率(ER),以评估角点和边缘分类的准确性。

本文提出了一种自监督方法和一种无监督方法,与现在常用的点云神经网络提取特征点做基准测试,实验结果见论文原文第4章。

应用

  • 构建语义和部分分割
  • 网格简化
  • 足迹检测
  • 空中路径规划

这篇关于Building3D An Urban-Scale Dataset and Benchmarks 论文阅读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/989735

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

HTML5自定义属性对象Dataset

原文转自HTML5自定义属性对象Dataset简介 一、html5 自定义属性介绍 之前翻译的“你必须知道的28个HTML5特征、窍门和技术”一文中对于HTML5中自定义合法属性data-已经做过些介绍,就是在HTML5中我们可以使用data-前缀设置我们需要的自定义属性,来进行一些数据的存放,例如我们要在一个文字按钮上存放相对应的id: <a href="javascript:" d

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需