调用股票网站接口读取大A数据——个股资金流入趋势

2024-08-25 03:44

本文主要是介绍调用股票网站接口读取大A数据——个股资金流入趋势,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

以某股票为例,调用自定义的一个类,读取数据。

class BigAData:# 获取资金流向数据def get_money_flow(self, stock_code, page=1, num=20, sort='opendate', asc=0):'''该函数通过股票代码从新浪财经API获取资金流向数据。参数包括股票代码、页数、每页数量、排序字段及升序标志。以JSON格式返回数据或在请求失败时返回None。stock_code: 股票代码page: 页码num: 每页数据量sort: 排序字段asc: 排序方式'''url = f'https://vip.stock.finance.sina.com.cn/quotes_service/api/json_v2.php/MoneyFlow.ssl_qsfx_zjlrqs?page={page}&num={num}&sort={sort}&asc={asc}&daima={stock_code}'# 获取数据resp = requests.get(url)# 返回数据if resp.status_code == 200:return resp.json()else:return None
import pandas as pd
from bad import BigAData# 获取数据
bad = BigAData()
json = bad.get_money_flow('sz002231')
# 转换为DataFrame
df = pd.DataFrame(json)
print(df)
      opendate   trade changeratio turnover       netamount ratioamount  \
0   2024-08-23  4.5100   0.0296804  2382.92   37363281.0000    0.118193   
1   2024-08-22  4.3800    0.100503  362.524   42948385.0000    0.930168   
2   2024-08-21  3.9800  0.00251889  179.015   -3115710.0000   -0.147867   
3   2024-08-20  3.9700  -0.0197531  240.578   -3530293.0100   -0.124667   
4   2024-08-19  4.0500  -0.0169903   352.25   -6396122.7800   -0.150614   
5   2024-08-16  4.1200  0.00487805   427.51    7383940.1800    0.141605   
6   2024-08-15  4.1000   0.0173697  439.131    7624788.0800    0.144833   
7   2024-08-14  4.0300   0.0151134  300.415    5807306.0000    0.162652   
8   2024-08-13  3.9700   0.0127551  208.087     374879.0000   0.0155296   
9   2024-08-12  3.9200  -0.0224439  260.522   -3826773.5000   -0.126509   
10  2024-08-09  4.0100           0  323.677    1130124.0000    0.029524   
11  2024-08-08  4.0100  -0.0337349  452.193   -7898189.0000   -0.146874   
12  2024-08-07  4.1500   0.0453401  654.428   16418773.1200    0.207017   
13  2024-08-06  3.9700   0.0284974  328.024    1869527.8200   0.0491337   
14  2024-08-05  3.8600  -0.0445545   427.89  -10943624.0000    -0.21893   
15  2024-08-02  4.0400  -0.0334928  472.996  -14696772.0000   -0.257066   
16  2024-08-01  4.1800  0.00966184  497.435    7710109.8000    0.126305   
17  2024-07-31  4.1400   0.0298507  690.852    9603634.0000    0.115494   
18  2024-07-30  4.0200   0.0151515  816.721    2341341.9200   0.0239997   
19  2024-07-29  3.9600   0.0179949  373.239    5214741.0000     0.12152   r0_net     r0_ratio r0x_ratio cnt_r0x_ratio      cate_ra  \
0   -12144784.0000  -0.03841832  -52.3118            -1    0.0214639   
1     4221340.0000   0.09142500   42.2921             1   -0.0486805   
...
16   -1288309434.8920  
17   13484819579.9720  
18    4050788991.6900  
19     796606779.8250  

重新命名列名,让数据可以看懂:

# 重新命名列名,并返回一个新的DataFrame(inplace=False)
new_columns={'opendate': '交易日', 'trade': '收盘价', 'changeratio': '涨跌幅', 'turnover':'换手率', 'netamount': '净流入(元)', 'ratioamount': '净流入率', 'r0_net': '主力净流入(元)', 'r0_ratio':'主力净流入率', 'r0x_ratio': '主力罗盘(°)', 'cate_ra': '行业净流入率'}
# 返回新的DataFrame
result = df.rename(columns=new_columns, inplace=False)
print(result)
result.to_excel('bad_demo.xlsx', index=False)

近20个交易日成交价格

这篇关于调用股票网站接口读取大A数据——个股资金流入趋势的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1104450

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

如何在页面调用utility bar并传递参数至lwc组件

1.在app的utility item中添加lwc组件: 2.调用utility bar api的方式有两种: 方法一,通过lwc调用: import {LightningElement,api ,wire } from 'lwc';import { publish, MessageContext } from 'lightning/messageService';import Ca

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav