python实现爬虫查看冠状病毒肺炎疫情

2023-11-11 05:40

本文主要是介绍python实现爬虫查看冠状病毒肺炎疫情,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

介绍

本文是使用python语言实现的简单爬虫,用于爬取官方网站给出的具体数据,以便得知具体的肺炎疫情状况。

数据来源

本次我们使用的数据来源是 丁香医生的疫情通报网站
在这里插入图片描述
我们将通过下面这些代码得到我们想要的疫情数据。同时我们使用pyecharts库,为河南省内所有数据绘制了一份疫情地图。
值得注意的是:这个网站其中的一部分内容是使用js异步加载出的,因此我们并不能直接找到上面图片中那些数据的直接xpath,因为很容易发现,从直接xpath加载出的数据为空。
若要直接从xpath中拿到数据,需要使用python的webdriver库模拟人打开浏览器进行交互,从而得到我们想要的数据。
在这里我们使用的不是上面的方法,而是在原始网页中找到了存储这些数据的位置。

代码

import requests
from lxml import html
import re
import json
import time
from pyecharts import options as opts
from pyecharts.charts import Map
from pyecharts.globals import ChartType, SymbolTypedef geo_henan(city_list, num_list) -> Map():c = (Map().add("图例",[list(z) for z in zip(city_list, num_list)],"河南").set_series_opts(label_opts=opts.LabelOpts(is_show=False)).set_global_opts(title_opts=opts.TitleOpts(title="河南疫情地图"),visualmap_opts=opts.VisualMapOpts(max_=200, is_piecewise=False)))return curl = 'https://ncov.dxy.cn/ncovh5/view/pneumonia'
res = requests.get(url)
res.encoding = 'utf-8'# f = open('../疫情.html', 'w+', encoding='utf-8')
# f.write(res.text)pattern = re.compile(r'"confirmedCount":.+"virus"')
pattern_Henan = re.compile(r'"河南".+?"comment"')
pattern_Henan_Inner = re.compile(r'{"cityName":"信阳.+?待明确地区')tree = html.fromstring(res.text)
pos = '//*[@id="getStatisticsService"]/text()'
data = str(tree.xpath(pos))
data = re.findall(pattern, data)
data = data[0][:-8]
data = '{' + str(data) + '}'
data = json.loads(data)print(time.strftime('{a}%Y{y}%m{m}%d{d} %H:%M').format(a='现在是', y='年', m='月', d='日'))
print(f"确诊人数:{data['confirmedCount']}")
print(f"疑似人数:{data['suspectedCount']}")
print(f"死亡人数:{data['deadCount']}")
print(f"重症人数:{data['seriousCount']}")
print(f"治愈人数:{data['curedCount']}")pos = '//*[@id="getListByCountryTypeService1"]/text()'
data = str(tree.xpath(pos))
data = re.findall(pattern_Henan, data)
data = data[0]
data = '{' + data[19:-10] + '}'
data = json.loads(data)print('-' * 40)
print(f"河南省确诊人数:{data['confirmedCount']}")
print(f"河南省死亡人数:{data['deadCount']}")
print(f"河南省治愈人数:{data['curedCount']}")pos = '//*[@id="getAreaStat"]/text()'
data = str(tree.xpath(pos))
data = re.findall(pattern_Henan_Inner, data)
data = data[0]
data = data[:-20]
data_list = data.split('},')city_list = []
num_list = []
for i in range(len(data_list)):data_list[i] = data_list[i][1:]data_list[i] = '{' + data_list[i] + '}'data_list[i] = json.loads(data_list[i])data_list[i]['cityName'] = data_list[i]['cityName'] + '市'city_list.append(data_list[i]['cityName'])num_list.append(data_list[i]['confirmedCount'])geo_henan(city_list, num_list).render('../河南疫情地图.html')

代码效果

在这里插入图片描述
在这里插入图片描述

这篇关于python实现爬虫查看冠状病毒肺炎疫情的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/387933

相关文章

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

Python使用OpenCV实现获取视频时长的小工具

《Python使用OpenCV实现获取视频时长的小工具》在处理视频数据时,获取视频的时长是一项常见且基础的需求,本文将详细介绍如何使用Python和OpenCV获取视频时长,并对每一行代码进行深入解析... 目录一、代码实现二、代码解析1. 导入 OpenCV 库2. 定义获取视频时长的函数3. 打开视频文

golang版本升级如何实现

《golang版本升级如何实现》:本文主要介绍golang版本升级如何实现问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录golanwww.chinasem.cng版本升级linux上golang版本升级删除golang旧版本安装golang最新版本总结gola

SpringBoot中SM2公钥加密、私钥解密的实现示例详解

《SpringBoot中SM2公钥加密、私钥解密的实现示例详解》本文介绍了如何在SpringBoot项目中实现SM2公钥加密和私钥解密的功能,通过使用Hutool库和BouncyCastle依赖,简化... 目录一、前言1、加密信息(示例)2、加密结果(示例)二、实现代码1、yml文件配置2、创建SM2工具

Mysql实现范围分区表(新增、删除、重组、查看)

《Mysql实现范围分区表(新增、删除、重组、查看)》MySQL分区表的四种类型(范围、哈希、列表、键值),主要介绍了范围分区的创建、查询、添加、删除及重组织操作,具有一定的参考价值,感兴趣的可以了解... 目录一、mysql分区表分类二、范围分区(Range Partitioning1、新建分区表:2、分

MySQL 定时新增分区的实现示例

《MySQL定时新增分区的实现示例》本文主要介绍了通过存储过程和定时任务实现MySQL分区的自动创建,解决大数据量下手动维护的繁琐问题,具有一定的参考价值,感兴趣的可以了解一下... mysql创建好分区之后,有时候会需要自动创建分区。比如,一些表数据量非常大,有些数据是热点数据,按照日期分区MululbU

Python中你不知道的gzip高级用法分享

《Python中你不知道的gzip高级用法分享》在当今大数据时代,数据存储和传输成本已成为每个开发者必须考虑的问题,Python内置的gzip模块提供了一种简单高效的解决方案,下面小编就来和大家详细讲... 目录前言:为什么数据压缩如此重要1. gzip 模块基础介绍2. 基本压缩与解压缩操作2.1 压缩文

Python设置Cookie永不超时的详细指南

《Python设置Cookie永不超时的详细指南》Cookie是一种存储在用户浏览器中的小型数据片段,用于记录用户的登录状态、偏好设置等信息,下面小编就来和大家详细讲讲Python如何设置Cookie... 目录一、Cookie的作用与重要性二、Cookie过期的原因三、实现Cookie永不超时的方法(一)

MySQL中查找重复值的实现

《MySQL中查找重复值的实现》查找重复值是一项常见需求,比如在数据清理、数据分析、数据质量检查等场景下,我们常常需要找出表中某列或多列的重复值,具有一定的参考价值,感兴趣的可以了解一下... 目录技术背景实现步骤方法一:使用GROUP BY和HAVING子句方法二:仅返回重复值方法三:返回完整记录方法四: