【论文阅读】K-Pointer-Network for Express Delivery Routes Planning

2024-06-04 00:20

本文主要是介绍【论文阅读】K-Pointer-Network for Express Delivery Routes Planning,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 论文基本信息
  • 摘要
  • 1.引言
  • 2. THE METHOD
  • 3. RESULT
  • 4. DISCUSSION
  • 5. 总结
  • 补充

论文基本信息

《K-Pointer-Network for Express Delivery Routes Planning》

摘要

在本研究中,作者打算提供一个合适的快速分配路径的设计,以缩短交货时间。如果路线规划不当,城市之间的快递运送时间将非常长。本实验研究的主要目的是将Kmeans和指针网络优化相结合,以检验指针网络在快速路由规划中的能力,提高指针网络在TSP挑战中的性能,并获得更短的快速路由规划。本文将改进后的k-指针网络与常规指针网络进行了比较。根据模型理论和实验数据,可以证明聚类数据样本独立提高计算性能和规划结果在许多情况下,当模型面对大量的测试输入,k-pointer网络优于传统的指针网络和提供相对较好的表达路线规划。

1.引言

k-指针神经网络是一种前馈神经网络,其输出单元与输出单元前面的单位(即前面的k个单位)一起工作,以产生最终的输出值。将一个单元与其相邻单元连接起来的功能被称为“k-神经元”。与标准的前馈网络不同,这不是一个完全连接的网络。

k-最近邻(KNN)问题要求如何确定或估计位于一个给定的点或区域上的一个未知的、期望的值。结果表明,KNN问题与k-指针神经网络密切相关。KNN问题可以被认为是k-指针神经网络的一种特殊情况,其中选择了给出到给定点最近的欧氏距离的k个神经元。

关于KNN问题,k个指针神经网络是一种由k个不同的权重矩阵组成的神经网络:每个神经元一个。在这种情况下,每个权重矩阵都可以被认为是一个神经元。这些权重矩阵使用距离范数计算,该范数计算数据集中随机点之间的欧氏距离,然后将它们归一化为单位向量。在快递场景中,用户在快递平台上下订单后,将订单信息发送给商户进行确认,并输入合同履行链接。这些订单是由用户分配和路由的调度系统,送货员根据订单完成提货和配送配送任务的工作。

路线规划是配送问题中一个基本而重要的环节,它直接影响到乘客服务路线的长度和时间,影响到订单准时率和客户满意度。过去也有一些有效的算法来解决类似的问题:从模拟退火算法[1]和遗传算法[2]等启发式算法到SOM竞争网络[3],都得到了很好的优化效果。然而,当面对更复杂的问题时,这些算法往往受到其自身框架的限制:例如,SOM对抗性网络在处理VRP问题或选择交付问题时存在困难,而当输出序列的大小不确定时,遗传算法在路径规划时存在困难。

指针网络的出现解决了这一限制:输出的类别可以通过指向一个输入来克服类别问题,从而得到指针网络[4]的图像。作为一种更年轻的算法,它在路径规划问题上的潜力仍未被探索。目前的指针网络解决TSP问题的主要缺点是,当样本集较大,收敛速度较慢时,优化速度较慢。本文提出了一种有效地解决这一问题的新方法

该方法的核心思想是通过一种有效的分割方法将较大的原始数据集分割成几个较小的样本集,并将每个簇单独处理后合并,恢复整体路径解。同时,采用演员-批评家模型对网络进行训练,以提高网络[5]的训练效果

将K-means数据处理与指针网络和行为批判模型相结合,成为解决指针网络在大量情况下收敛缓慢问题的一种方法。该算法首先通过聚合自动确定路径节点的K值,并对K-means中的节点进行聚类,然后确定集群之间的旅行顺序,然后依次在每个集群内进行路径规划,最后将所有路径连接在一起。有一种更好的、更高效的解决方案,本文将其称为k-指针网络。

2. THE METHOD

3. RESULT

4. DISCUSSION

当测试城市只有30时,k指针网络比常规指针网络的计算时间更长,规划距离相对较长。但当测试城市数量达到50个时,k-指针网络计算的规划距离要小于常规指针网络计算的规划距离。

所以,忘记k指针网络,尝试一些其他的测试数据。当测试城市设置为100时,k-指针网络获得的规划距离明显优于经典指针网络获得的规划距离。为了避免利用特定的训练方法来训练模型所产生的不确定性,我们利用了一些额外的数据和训练时间来对模型进行训练,如在50个城市进行了4万次训练,实验结果几乎保持不变。

基于这一实验现象,不难推断k-指针网络在面对较大的测试集时能比传统的指针网络得到更好的结果。根据对k-指针网络本身的理解,与传统的指针网络相比,k-指针网络采用k-means算法在指针网络之前进行聚类,提高了指针网络的数据处理效率。因此,当测试集比训练集大得多时,k-指针网络往往可以获得更好的处理结果;然而,当处理一个小的测试集或大小与训练集相似的测试集,离群值会对平均值的计算产生显著影响,从而导致中心偏移。与标准的指针网络相比,结果并不好。

k-指针网络的跨度与标准指针网络大致相同。但由于计算需要更长的时间,所以它通常需要更大的内存空间。

k-指针网络可以提高指针网络的总体效率,这大大节省了计算时间,特别是在处理许多城市和/或一个大型测试集时。它还节省了内存空间,因为不需要一次在内存中存储所有数据。

总的来说,k-指针网络对于处理高维问题是有效的。它可以通过减少需要处理的数据元素的数量来提高数据处理的效率。这使得处理大量的输入数据变得更容易。

5. 总结

通过一系列的实验,可以发现:

  1. 当测试城市的数量超过培训城市的数量时,k-指针网络的好处就变得明显了;旅行计划变得更加明智,里程减少。
  2. k-指针网络对于大量的层次城市需要较少的计算资源。
  3. 如果有大量的测试输入,则只需要训练一个小的网络来满足测试标准。

k-指针网络在一定程度上帮助指针网络克服了在路径规划和计算开销方面的TSP挑战。本文还提出了一些优化建议:多线程减少了算法的数量一个网络执行和使用其他可信的网络所需要的时间,如启发式网络,来进行比较。然而,在运行时间、更科学的路线设计等方面仍有待改进。

补充

为了在城市数量比较多时更快。

这篇关于【论文阅读】K-Pointer-Network for Express Delivery Routes Planning的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1028532

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需