使用DTW算法对上证50成分股走势进行聚类分析

2024-03-31 18:48

本文主要是介绍使用DTW算法对上证50成分股走势进行聚类分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

0.背景

客户要求对发电机组的过程参数进行分析,把走势异常的工艺过程数据挑出来。研究这个需求的时候感觉可能DTW算法比较合适。

关于DTW算法的描述前人描述很多。知乎中这位大神的收藏夹有很多关于时间序列算法的描述。

时间序列相似度以及聚类 - 收藏夹 - 知乎


 

想着搞点数据来试试才知道效果怎么样以及学会怎么用。然而甲方的数据倒腾起来太费劲。最好搞的数据是从富途上扒拉股票数据。于是决定把上证50成分股的走势搞个聚类看看,哪些成分股的走势是趋同的。

1. 准备工作

安装DTAIDistance的包。

pip install dtaidistance

注意要先有OpenMP。用法参考官方文档Welcome to DTAIDistance’s documentation! — DTAIDistance 2.2.1 documentation

准备从富途扒拉股票数据。参考官方文档富途开放接口

获取上证50列表。成分股数据 _ 数据中心 _ 东方财富网 上扒拉到excel里。

2.代码

基本就是调用datidistance包的现成函数。需要注意的是,包里的聚类算法输入的是由numpy.ndarray组成的list。list中每一行代表一个时间序列,时间序列的长度可以不等。

a=[np.array([0.,1,2,0,1,]),np.array([0.,1,3,1,2]),np.array([0.,0.5,1,2.5,3,0,2])]

 

就如同上面那样,整体的代码如下,东西都很简单看看注释和官方文档就行。

from futu import *
import  numpy as np
from dtaidistance import dtw, dtw_ndim, clustering, util_numpy
import dtaidistance.dtw_visualisation as dtwvis
from dtaidistance.exceptions import PyClusteringException
import matplotlib.pyplot as pltdef read_sh50():return pd.read_excel("./sh50.xlsx")
def read_k():df_sh50 = read_sh50()quote_ctx = OpenQuoteContext(host='127.0.0.1', port=11111)start_date = "2020-9-1"#K线开始时间end_date = "2021-9-1"#K线结束时间s=[]for i in range(df_sh50.shape[0]):ret, data, page_req_key = quote_ctx.request_history_kline(df_sh50.at[i, 'futucode'], start=start_date,end=end_date, max_count=1000)#获取上证50每一个股票的K线数据if ret == RET_OK:if i == 0:ntmp=np.array(data['close'].values.tolist())#将收盘价转换为numpy arrayntmp=(ntmp-np.min(ntmp))/(np.max(ntmp)-np.min(ntmp))#归一化s = [ntmp]else:ntmp = np.array(data['close'].values.tolist())ntmp = (ntmp - np.min(ntmp)) / (np.max(ntmp) - np.min(ntmp))s.append(ntmp)quote_ctx.close()  # 结束后记得关闭当条连接,防止连接条数用尽model1 = clustering.LinkageTree(dtw.distance_matrix_fast, {})#指定聚类所用的方法为linkagetree,计算两条曲线相似度的函数用dtw.distance_matrix_fastcluster_idx = model1.fit(s)#进行聚类计算plt.rcParams['font.family'] = ['sans-serif']#中文支持plt.rcParams['font.sans-serif'] = ['SimHei']fig, ax = plt.subplots(nrows=1, ncols=2, figsize=(100, 100))#整个大点的图好放得下show_ts_label = lambda idx: df_sh50.at[idx,'股票名称']#指定每条曲线的标签model1.plot("hierarchy.png", axes=ax, show_ts_label=show_ts_label,show_tr_label=True, ts_label_margin=-10,ts_left_margin=10, ts_sample_length=1)

3. 结果

不出意外一坨银行股挤在了一起。然而民生银行还真是奇葩,跟其他银行股不一样。药茅、光茅和航发、韦尔股份的走势高度一致,也就是版块不重要,靠梦想的股票和靠现金流的股票都是各玩各的。

 

这篇关于使用DTW算法对上证50成分股走势进行聚类分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/865053

相关文章

java图像识别工具类(ImageRecognitionUtils)使用实例详解

《java图像识别工具类(ImageRecognitionUtils)使用实例详解》:本文主要介绍如何在Java中使用OpenCV进行图像识别,包括图像加载、预处理、分类、人脸检测和特征提取等步骤... 目录前言1. 图像识别的背景与作用2. 设计目标3. 项目依赖4. 设计与实现 ImageRecogni

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Mysql虚拟列的使用场景

《Mysql虚拟列的使用场景》MySQL虚拟列是一种在查询时动态生成的特殊列,它不占用存储空间,可以提高查询效率和数据处理便利性,本文给大家介绍Mysql虚拟列的相关知识,感兴趣的朋友一起看看吧... 目录1. 介绍mysql虚拟列1.1 定义和作用1.2 虚拟列与普通列的区别2. MySQL虚拟列的类型2

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

关于@MapperScan和@ComponentScan的使用问题

《关于@MapperScan和@ComponentScan的使用问题》文章介绍了在使用`@MapperScan`和`@ComponentScan`时可能会遇到的包扫描冲突问题,并提供了解决方法,同时,... 目录@MapperScan和@ComponentScan的使用问题报错如下原因解决办法课外拓展总结@

mysql数据库分区的使用

《mysql数据库分区的使用》MySQL分区技术通过将大表分割成多个较小片段,提高查询性能、管理效率和数据存储效率,本文就来介绍一下mysql数据库分区的使用,感兴趣的可以了解一下... 目录【一】分区的基本概念【1】物理存储与逻辑分割【2】查询性能提升【3】数据管理与维护【4】扩展性与并行处理【二】分区的

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Linux使用fdisk进行磁盘的相关操作

《Linux使用fdisk进行磁盘的相关操作》fdisk命令是Linux中用于管理磁盘分区的强大文本实用程序,这篇文章主要为大家详细介绍了如何使用fdisk进行磁盘的相关操作,需要的可以了解下... 目录简介基本语法示例用法列出所有分区查看指定磁盘的区分管理指定的磁盘进入交互式模式创建一个新的分区删除一个存

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

SpringBoot使用Apache Tika检测敏感信息

《SpringBoot使用ApacheTika检测敏感信息》ApacheTika是一个功能强大的内容分析工具,它能够从多种文件格式中提取文本、元数据以及其他结构化信息,下面我们来看看如何使用Ap... 目录Tika 主要特性1. 多格式支持2. 自动文件类型检测3. 文本和元数据提取4. 支持 OCR(光学