[python]沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅

2023-10-31 01:30

本文主要是介绍[python]沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅

事前数据:

前面处理得到的csv文件

文件名前加入“[wait]”等待程序处理

python代码从雅虎股票历史数据api获取数据,计算后面5日的涨跌幅

雅虎数据api格式:

priceUrl = 'http://table.finance.yahoo.com/table.csv?s={%1}&d={%2}&e={%3}&f={%4}&g=d&a={%5}&b={%6}&c={%7}&ignore=.csv'
# %1:000001.sz
# END: %2:月-1 %3:日 %4:年
# STRAT: %5:月-1 %6:日 %7:年

事前数据截图:

计算后,再用excel的条件格式并另存为excel文件后截图:

代码:

  1 #coding=utf-8
  2 
  3 #读取'[wait]'开头的csv文件
  4 #copyright @ WangXinsheng
  5 #http://www.cnblogs.com/wangxinsheng/
  6 import os
  7 import gzip
  8 import re
  9 import http.cookiejar
 10 import urllib.request
 11 import urllib.parse
 12 import time
 13 import datetime
 14 
 15 def getOpener(head):
 16     # deal with the Cookies
 17     cj = http.cookiejar.CookieJar()
 18     pro = urllib.request.HTTPCookieProcessor(cj)
 19     opener = urllib.request.build_opener(pro)
 20     header = []
 21     for key, value in head.items():
 22         elem = (key, value)
 23         header.append(elem)
 24     opener.addheaders = header
 25     return opener
 26 
 27 def ungzip(data):
 28     try:        # 尝试解压
 29         print('正在解压.....')
 30         data = gzip.decompress(data)
 31         print('解压完毕!')
 32     except:
 33         print('未经压缩, 无需解压')
 34     return data
 35  
 36 #常量
 37 header = {
 38     #'Connection': 'Keep-Alive',
 39     'Accept': '*/*',
 40     'Accept-Language': 'zh-CN,zh;q=0.8',
 41     'User-Agent': 'Mozilla/5.0 (Windows NT 6.2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36',
 42     'Accept-Encoding': 'gzip, deflate',
 43     'Host': 'yahoo.com',
 44     'Referer' : 'http://www.yahoo.com'
 45 }
 46 priceUrl = 'http://table.finance.yahoo.com/table.csv?\
 47 s={%1}&d={%2}&e={%3}\
 48 &f={%4}&g=d&a={%5}&b={%6}&c={%7}&ignore=.csv'
 49 # %1:000001.sz
 50 # END:   %2:月-1 %3:日-1 %4:年
 51 # STRAT: %5:月-1 %6:日 %7:年
 52 
 53 
 54 path=r'.'
 55 files = os.listdir(path)
 56 files.sort()
 57 out=[]
 58 
 59 for f in files:
 60     if(f.startswith('[wait]') and
 61        f.endswith('.csv')):
 62         #读取文件
 63         print('读取文件:'+path+'/'+f)
 64         
 65         f=open(path+'/'+f,'rt')
 66         infos = f.readlines()
 67         f.close()
 68 
 69         i = 0
 70         add = False
 71         for info in infos:
 72             if(i==0):
 73                 i=i+1
 74                 info = info.replace('\n','')+',"一天后","二天后","三天后","四天后","五天后"\n'
 75                 out.append(info)
 76                 continue
 77             elif(len(info.split(','))>9):
 78                 out.append(info)
 79                 continue
 80             else:
 81                 #确认需要取的数据范围
 82                 tmp = info.split(',')
 83                 try:
 84                     timeArray = time.strptime(tmp[0], "%Y-%m-%d")
 85                 except:
 86                     timeArray = time.strptime(tmp[0], "%Y/%m/%d")
 87                 timeStamp = int(time.mktime(timeArray))
 88                 fromDay = datetime.datetime.utcfromtimestamp(timeStamp)
 89                 fromDay = fromDay + datetime.timedelta(days = 1)
 90                 endDay = fromDay + datetime.timedelta(days = 15)
 91                 code = tmp[1].replace('"','').replace("'","")
 92                 if(code.startswith('6')):
 93                     code = code +'.ss'
 94                 else:
 95                     code = code +'.sz'
 96                 url = priceUrl.replace('{%1}',code).replace('{%2}',str(endDay.month-1))
 97                 url = url.replace('{%3}',str(endDay.day)).replace('{%4}',str(endDay.year))
 98                 url = url.replace('{%5}',str(fromDay.month-1)).replace('{%6}',str(fromDay.day))
 99                 url = url.replace('{%7}',str(fromDay.year))
100                 print('抓取URL: '+url)
101                 
102                 #通过雅虎获取价格
103                 dd = ''
104                 try:
105                     opener = getOpener(header)
106                     op = opener.open(url)
107                     data = op.read()
108                     data = ungzip(data)
109                     dd = data.decode()
110                 except:
111                     print('网络抓取失败')
112                     out.append(info)
113                     continue
114                 #计算涨跌幅百分比    
115                 if(dd!=''):
116                     dataInfo = dd.split('\n')
117                     j=0
118                     dayCount = 0
119                     startPrice = 0
120                     for x in range(len(dataInfo)-1,0,-1):
121                         #处理数据
122                         if(dataInfo[x]==''):
123                             continue
124                         #print(dataInfo[x])
125                         if(dayCount>5):
126                             break
127                         di = dataInfo[x]
128                         if(dayCount==0):
129                             startPrice = float(di.split(',')[4])
130                         elif(int(di.split(',')[5])!=0):
131                             add = True
132                             closeP = float(di.split(',')[4])
133                             info = info.replace('\n','')+',"'+str(round((closeP-startPrice)/startPrice*100,2))+'%['+str(closeP)+']"'
134                             #print(info)
135                         if(dayCount==0 or int(di.split(',')[5])!=0):
136                             dayCount=dayCount+1
137                             
138                 if(add):
139                     out.append(info+'\n')
140                 #print(out)
141                 continue
142         #输出
143         ff = open(path+'/'+f.name.replace('[wait]','[处理完了]'),'w')
144         for o in out:
145             ff.write(o)
146         ff.close()
147         print('处理完了\n文件地址:'+path+'/'+f.name.replace('[wait]','[处理完了]'))
148     else:
149         continue

 

转载于:https://www.cnblogs.com/wangxinsheng/p/4854378.html

这篇关于[python]沪深龙虎榜数据进一步处理,计算日后5日的涨跌幅的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/311889

相关文章

Springboot处理跨域的实现方式(附Demo)

《Springboot处理跨域的实现方式(附Demo)》:本文主要介绍Springboot处理跨域的实现方式(附Demo),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录Springboot处理跨域的方式1. 基本知识2. @CrossOrigin3. 全局跨域设置4.

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专

Python中随机休眠技术原理与应用详解

《Python中随机休眠技术原理与应用详解》在编程中,让程序暂停执行特定时间是常见需求,当需要引入不确定性时,随机休眠就成为关键技巧,下面我们就来看看Python中随机休眠技术的具体实现与应用吧... 目录引言一、实现原理与基础方法1.1 核心函数解析1.2 基础实现模板1.3 整数版实现二、典型应用场景2

Python实现无痛修改第三方库源码的方法详解

《Python实现无痛修改第三方库源码的方法详解》很多时候,我们下载的第三方库是不会有需求不满足的情况,但也有极少的情况,第三方库没有兼顾到需求,本文将介绍几个修改源码的操作,大家可以根据需求进行选择... 目录需求不符合模拟示例 1. 修改源文件2. 继承修改3. 猴子补丁4. 追踪局部变量需求不符合很

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

python+opencv处理颜色之将目标颜色转换实例代码

《python+opencv处理颜色之将目标颜色转换实例代码》OpenCV是一个的跨平台计算机视觉库,可以运行在Linux、Windows和MacOS操作系统上,:本文主要介绍python+ope... 目录下面是代码+ 效果 + 解释转HSV: 关于颜色总是要转HSV的掩膜再标注总结 目标:将红色的部分滤

Python 中的异步与同步深度解析(实践记录)

《Python中的异步与同步深度解析(实践记录)》在Python编程世界里,异步和同步的概念是理解程序执行流程和性能优化的关键,这篇文章将带你深入了解它们的差异,以及阻塞和非阻塞的特性,同时通过实际... 目录python中的异步与同步:深度解析与实践异步与同步的定义异步同步阻塞与非阻塞的概念阻塞非阻塞同步