可转债全部历史因子数据,提供api支持

2024-06-13 01:52

本文主要是介绍可转债全部历史因子数据,提供api支持,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天在写可转债系统,顺便下载了一下服务器的可转债数据,给大家研究使用

from trader_tool.stock_data import stock_datafrom trader_tool.lude_data_api import lude_data_apiimport osclass convertible_bond_back_test_system:    '''    可转债回测系统    '''    def __init__(self,start_date='20180101',end_date='20240612'):        self.start_date=start_date        self.end_date=end_date        self.path=os.path.dirname(os.path.abspath(__file__))        self.lude_data_api=lude_data_api()        self.stock_data=stock_data()    def down_all_data(self):        '''        下载服务器可转债全部数据        '''        trader_list=self.stock_data.get_trader_date_list(start_date=self.start_date,end_date=self.end_date)        for date in trader_list:            all_path=os.listdir(r'{}\data'.format(self.path))            main_path='{}.csv'.format(date)            if main_path in all_path:                print('{}已经下载'.format(main_path))            else:                df=self.lude_data_api.get_bond_data(date=date)                stats=df['数据状态'].tolist()[-1]                if stats==True:                    try:                        del df['更新时间']                    except Exception as e:                        print(e)                    try:                        del df['数据时间']                    except Exception as e:                        print(e)                    df.to_csv(r'{}\data\{}'.format(self.path,main_path))                    print('{}交易日数据下载完成'.format(date))                else:                    print('{}交易日没有数据'.format(date))if __name__=='__main__':    backtrader=convertible_bond_back_test_system()    backtrader.down_all_data()

原始的数据来自禄得,不用在商业用途,感谢老师的数据

网页 https://lude.cc/

图片

我网页也支持数据下载 网页 http://120.78.132.143:8023/

图片

点击可转债数据,禄得数据

图片

可以点击下载数据,选择日期

图片

下载的数据

图片

利用程序自动下载全部历史的数据

图片

全部的历史数据

图片

图片

需要全部数据的直接回复20240612就可以

图片

下载我服务器数据的api​​​​​​​

import pandas as pdimport requests import jsonclass lude_data_api:    def __init__(self,url='http://120.78.132.143',port='8023',password='123456'):        '''        手动下载存数据库        禄得数据api        url服务器        port端口        password授权码        '''        self.url=url        self.port=port        self.password=password    def get_bond_data(self,date='2024-04-26'):        '''        获取可转债数据        '''        url='{}:{}/_dash-update-component'.format(self.url,self.port)        headers={'Content-Type':'application/json'}        data={"output":"lude_data_maker_table.data@669dd4696a628d8290353c138057eb97",            "outputs":{"id":"lude_data_maker_table","property":"data@669dd4696a628d8290353c138057eb97"},            "inputs":[{"id":"password","property":"value","value":self.password},            {"id":"lude_data_data_type","property":"value","value":"禄得数据"},            {"id":"lude_data_end_date","property":"date","value":date},            {"id":"lude_data_run","property":"value","value":"运行"},            {"id":"lude_data_down_data","property":"value","value":"不下载数据"}],            "changedPropIds":["lude_data_run.value"]}        res=requests.post(url=url,data=json.dumps(data),headers=headers)        text=res.json()        df=pd.DataFrame(text['response']['lude_data_maker_table']['data'])        return df    def get_bond_spot_data(self,date='2024-05-23'):        '''        获取可转债实时数据        '''        url='{}:{}/_dash-update-component'.format(self.url,self.port)        headers={'Content-Type':'application/json'}        data={"output":"lude_data_maker_table.data@669dd4696a628d8290353c138057eb97",            "outputs":{"id":"lude_data_maker_table","property":"data@669dd4696a628d8290353c138057eb97"},            "inputs":[{"id":"password","property":"value","value":self.password},            {"id":"lude_data_data_type","property":"value","value":"实时数据"},            {"id":"lude_data_end_date","property":"date","value":date},            {"id":"lude_data_run","property":"value","value":"运行"},            {"id":"lude_data_down_data","property":"value","value":"不下载数据"}],            "changedPropIds":["lude_data_run.value"]}        res=requests.post(url=url,data=json.dumps(data),headers=headers)        text=res.json()        df=pd.DataFrame(text['response']['lude_data_maker_table']['data'])        return dfif __name__=='__main__':    models=lude_data_api()    df=models.get_bond_data(date='2024-05-23')    print(df)    df=models.get_bond_spot_data(date='2024-05-23')

这篇关于可转债全部历史因子数据,提供api支持的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1055958

相关文章

SpringKafka消息发布之KafkaTemplate与事务支持功能

《SpringKafka消息发布之KafkaTemplate与事务支持功能》通过本文介绍的基本用法、序列化选项、事务支持、错误处理和性能优化技术,开发者可以构建高效可靠的Kafka消息发布系统,事务支... 目录引言一、KafkaTemplate基础二、消息序列化三、事务支持机制四、错误处理与重试五、性能优

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个

SpringBoot整合jasypt实现重要数据加密

《SpringBoot整合jasypt实现重要数据加密》Jasypt是一个专注于简化Java加密操作的开源工具,:本文主要介绍详细介绍了如何使用jasypt实现重要数据加密,感兴趣的小伙伴可... 目录jasypt简介 jasypt的优点SpringBoot使用jasypt创建mapper接口配置文件加密

使用Python高效获取网络数据的操作指南

《使用Python高效获取网络数据的操作指南》网络爬虫是一种自动化程序,用于访问和提取网站上的数据,Python是进行网络爬虫开发的理想语言,拥有丰富的库和工具,使得编写和维护爬虫变得简单高效,本文将... 目录网络爬虫的基本概念常用库介绍安装库Requests和BeautifulSoup爬虫开发发送请求解