Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting

本文主要是介绍Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这篇文章来大致介绍一下ConvLSTM的基本原理和应用场景。个人认为有时候对于一个算法改进很大程度上会受到应用场景的启示,比如现在要说的这篇。不知道论文作者当时想到这个idea时是不是也是这样。

1.论文的核心思想

先来想象一下这么一个应用场景:根据某个城市历史的降雨量数据,来预测在接下来的某个时间t降雨量的多少。根据作者的思路:

  • a 先将城市划分成m\times n个格子,每个格子代表一个小的区域(例如100\times 100) ;
  • b.每个格子里面的数值表示在某个时间间隔内的降雨量(例如6分钟)

如下图所示:

 因此,对于每一个时刻t_{i} 来说,其都对应的着由每个小区域降雨量所构成的矩阵A_{1},A_{2},....A_{i},单独对于每个矩阵A_{i}来说,每个小区域的降水量与之周围小区域的降水量肯定有着某种联系(类似对于图片中的某个像素点来说,它肯定与之周围的像素点相关)。因此,基于这个想法对于单独的每个矩阵我们可以采用卷积的方式来提取特征。同时从时间轴来看,每个降雨量矩阵A_{i}在时间维度上也存在着某种联系。例如某个小区域的当前降雨量肯定会很大程度上影响其下一个时间间隔内的降雨量。故,从时间维度上又可以用LSTM来提取特征。

 以上就是论文的核心思想,下面再来稍微看看作者所考虑的其它因素。

2.论文梗概

首先,论文的改进并不是基于原始的LSTM(Long Short-Term Memory),而是论文Generating Sequences With
Recurrent Neural Networks所引用的一个结构来改变的,作者将其称为"FC-LSTM",如下图所示:

 可以发现,这个"FC-LSTM"就是加了窥视连接"peephole connections"的LSTM:

 其次,作者对于已有的网络结构作者提出了如下主要缺点:

1.fully connected LSTM (FC-LSTM) layer adopted by their model does not take spatial correlation into consideration
2.Although the FC-LSTM layer has proven powerful for handling temporal correlation, it contains too much redundancy for spatial data

 接着,作者提出了基于FC-LSTM所改进的ConvLSTM。ConvLSTM网络的主体连接方式同FC-LSTM一样,却别在于提取特征的方式不一样,前者采用的卷积方式提取特征,而后者依旧是全连接。

 同时,从作者论文中所给出的图(下图)来看,通过分别对X_{t},H_{t-1}做卷积处理,然后结合C_{t-1}得到H_{t},C_{t};接着再将得到的结果与X_{t+1}进行处理,得到H_{t+1},C_{t+1}以此类推。

以及,作者说到:对于ConvLSTM来说,依旧可以向其它RNN一样采取多层叠加的方式来使得模型的预测能力更强。如下图,作者以两层ConvLSTM为例,先对两层的网络进行训练,然后再将其用来预测。

 最后,作者进行了相关实验。遗憾的是均没有提供现有的数据集。另外对于实现过程的一些小细节,将在下一篇文章中介绍。

这篇关于Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/289926

相关文章

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

自然语言处理系列六十三》神经网络算法》LSTM长短期记忆神经网络算法

注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】 文章目录 自然语言处理系列六十三神经网络算法》LSTM长短期记忆神经网络算法Seq2Seq端到端神经网络算法 总结 自然语言处理系列六十三 神经网络算法》LSTM长短期记忆神经网络算法 长短期记忆网络(LSTM,Long S

深度学习--对抗生成网络(GAN, Generative Adversarial Network)

对抗生成网络(GAN, Generative Adversarial Network)是一种深度学习模型,由Ian Goodfellow等人在2014年提出。GAN主要用于生成数据,通过两个神经网络相互对抗,来生成以假乱真的新数据。以下是对GAN的详细阐述,包括其概念、作用、核心要点、实现过程、代码实现和适用场景。 1. 概念 GAN由两个神经网络组成:生成器(Generator)和判别器(D

Tensorflow lstm实现的小说撰写预测

最近,在研究深度学习方面的知识,结合Tensorflow,完成了基于lstm的小说预测程序demo。 lstm是改进的RNN,具有长期记忆功能,相对于RNN,增加了多个门来控制输入与输出。原理方面的知识网上很多,在此,我只是将我短暂学习的tensorflow写一个预测小说的demo,如果有错误,还望大家指出。 1、将小说进行分词,去除空格,建立词汇表与id的字典,生成初始输入模型的x与y d

ZOJ 3324 Machine(线段树区间合并)

这道题网上很多代码是错误的,由于后台数据水,他们可以AC。 比如这组数据 10 3 p 0 9 r 0 5 r 6 9 输出应该是 0 1 1 所以有的人直接记录该区间是否被覆盖过的方法是错误的 正确方法应该是记录这段区间的最小高度(就是最接近初始位置的高度),和最小高度对应的最长左区间和右区间 开一个sum记录这段区间最小高度的块数,min_v 记录该区间最小高度 cover

CNN-LSTM模型中应用贝叶斯推断进行时间序列预测

这篇论文的标题是《在混合CNN-LSTM模型中应用贝叶斯推断进行时间序列预测》,作者是Thi-Lich Nghiem, Viet-Duc Le, Thi-Lan Le, Pierre Maréchal, Daniel Delahaye, Andrija Vidosavljevic。论文发表在2022年10月于越南富国岛举行的国际多媒体分析与模式识别会议(MAPR)上。 摘要部分提到,卷积

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{