Efficiently Learning Spatial Indices

2023-10-24 07:30

本文主要是介绍Efficiently Learning Spatial Indices,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Efficiently Learning Spatial Indices (ICDE2023)

学习索引可以利用现代深度学习技术的高预测精度和效率。它们能够提供比一维数据上的传统索引更好的查询性能。最近的研究表明,我们也可以通过划分并随后将空间数据转换为一维值来实现空间数据的查询高效学习索引,之后可以应用现有技术。在实现高效查询的同时,有效地构建和重建已学习的空间索引在很大程度上仍未得到解决。由于学习空间索引所需的模型训练成本很高,因此通过模型训练和再训练的方式在大数据集上高效地构建和重建已学习的空间索引是一项挑战

为了提高学习空间索引的实用性,我们提出了一个名为ELSI的系统,该系统能够有效地构建和重建一类遵循两个简单设计原则的学习空间索引。其核心思想是通过设计保留关键数据分布模式的简化训练集来减少模型(重新)构建时间。ELSI包含了一套从输入数据集构建小的和保持分布的训练集的方法。此外,在给定输入数据集的情况下,ELSI可以自适应地选择一种产生具有高查询效率的学习索引的方法。在超过1亿个点的真实数据集上的实验表明,ELSI可以在不影响查询效率的情况下,一致地减少四种不同的学习空间索引的构建时间(最多减少两个数量级)。

1.解决的问题

提高索引模型在大数据上的训练和重构时间和效率

2. 核心思想想法

在大数据集上进行采样,得到一个保留原始数据集分布的子数据,在该数据集上训练和重构索引模型

3. ELSI系统

1)ELSI提供了六种索引构建方法的方法集。其中五个用于生成(或获取预生成的)DS,另一个仅使用原始(OG)数据集D,作为备份选项。 

2)提出了六种索引构建方法中的两种:代表集(RS)和强化学习(RL),以降低成本获得D的更好的近似DS。

 

 构建基本索引可以在D上训练单个索引模型,也可以对D进行分区并为每个分区训练索引模型。ELSI改善了每个索引模型的构建时间,同时不干扰分区

4. ELSI Modules 

ELSI有两个主要模块:构建处理器和更新处理器。

1)构建处理器:构建处理器使用索引构建方法选择器从方法池P中选择方法P来学习索引。

目的是为D现高效的索引构建和查询处理。

使用一个方法计分员,并选择得分最高的方法。方法scorer的关键元素是两个ffn(图4中的组件2),一个估计方法P的索引构建成本,用CB(·)表示,另一个估计方法P构建索引的查询成本,用CQ(·)表示。

2)更新处理器: 更新处理器提供默认的更新过程(基索引也可以使用其内置的更新过程)。它使用一个单独的列表来存储新插入的点和删除的现有点(或者在基本索引允许的情况下将这些点标记为已删除)。 

5. INDEX BUILDING METHODS

这些方法并不构建新的索引类型,而是构建(或找到)类似于输入数据集D的小数据集。 

A. Adapted Methods

1) Sampling: Random sampling

2)聚类:为了保持数据的分布模式,聚类方法(CL)将原始空间中的D聚为C(一个系统参数)聚类,并将聚类质心集作为小数据集。我们使用k-means算法是因为它很简单

 3) Model Reuse

 为了解决这些方法在索引建立效率(CL)或查询效率(SP和MR)方面的局限性,1) Representative Set:

2) Reinforcement Learning

6实验

 数据集。我们使用四个真实数据集,OSM1, OSM2, TPC-H和NYC,以及两个合成数据集,Uniform和歪斜。

这篇关于Efficiently Learning Spatial Indices的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/273653

相关文章

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

Learning Memory-guided Normality for Anomaly Detection——学习记忆引导的常态异常检测

又是一篇在自编码器框架中研究使用记忆模块的论文,可以看做19年的iccv的论文的衍生,在我的博客中对19年iccv这篇论文也做了简单介绍。韩国人写的,应该是吧,这名字听起来就像。 摘要abstract 我们解决异常检测的问题,即检测视频序列中的异常事件。基于卷积神经网络的异常检测方法通常利用代理任务(如重建输入视频帧)来学习描述正常情况的模型,而在训练时看不到异常样本,并在测试时使用重建误

Learning Temporal Regularity in Video Sequences——视频序列的时间规则性学习

Learning Temporal Regularity in Video Sequences CVPR2016 无监督视频异常事件检测早期工作 摘要 由于对“有意义”的定义不明确以及场景混乱,因此在较长的视频序列中感知有意义的活动是一个具有挑战性的问题。我们通过在非常有限的监督下使用多种来源学习常规运动模式的生成模型(称为规律性)来解决此问题。体来说,我们提出了两种基于自动编码器的方法,以

COD论文笔记 Adaptive Guidance Learning for Camouflaged Object Detection

论文的主要动机、现有方法的不足、拟解决的问题、主要贡献和创新点如下: 动机: 论文的核心动机是解决伪装目标检测(COD)中的挑战性任务。伪装目标检测旨在识别和分割那些在视觉上与周围环境高度相似的目标,这对于计算机视觉来说是非常困难的任务。尽管深度学习方法在该领域取得了一定进展,但现有方法仍面临有效分离目标和背景的难题,尤其是在伪装目标与背景特征高度相似的情况下。 现有方法的不足之处: 过于

One-Shot Imitation Learning

发表时间:NIPS2017 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=4557560538297540609&noteId=2424799047081637376 作者单位:Berkeley AI Research Lab, Work done while at OpenAI Yan Duan†§ , Marcin Andrychow

Introduction to Deep Learning with PyTorch

1、Introduction to PyTorch, a Deep Learning Library 1.1、Importing PyTorch and related packages import torch# supports:## image data with torchvision## audio data with torchaudio## text data with t

《Learning To Count Everything》CVPR2021

摘要 论文提出了一种新的方法来解决视觉计数问题,即在给定类别中仅有少量标注实例的情况下,对任何类别的对象进行计数。将计数问题视为一个少样本回归任务,并提出了一种新颖的方法,该方法通过查询图像和查询图像中的少量示例对象来预测图像中所有感兴趣对象的存在密度图。此外,还提出了一种新颖的适应策略,使网络能够在测试时仅使用新类别中的少量示例对象来适应任何新的视觉类别。为了支持这一任务,作者还引入了一个包含

One-Shot Imitation Learning with Invariance Matching for Robotic Manipulation

发表时间:5 Jun 2024 论文链接:https://readpaper.com/pdf-annotate/note?pdfId=2408639872513958656&noteId=2408640378699078912 作者单位:Rutgers University Motivation:学习一个通用的policy,可以执行一组不同的操作任务,是机器人技术中一个有前途的新方向。然而,

MaPLe(论文解读): Multi-modal Prompt Learning

Comment: Accepted at CVPR2023 摘要 预训练的视觉语言模型(VL-PTMs)(比如CLIP)在下游任务中已经表现出不错的泛化能力。但是它们对输入文本提示模板的选择很敏感,需要仔细选择提示模板才能表现良好。 受到NLP领域的启发,最近的CLIP的自适应性方法开始学习提示作为文本输入,来微调CLIP以适应下游任务。本文能注意到,在CLIP的单个分支(语言或图像分支)中