新奇!pandas爬虫?

2023-11-23 12:50
文章标签 爬虫 pandas 新奇

本文主要是介绍新奇!pandas爬虫?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

众所周知,一般的爬虫套路无非是构造请求、解析网页、提取要素、存储数据等步骤。构造请求主要用到requests库,提取要素用的比较多的有xpath、bs4、css和re。一个完整的爬虫,代码量少则几十行,多则几百行,对于新手来说学习成本还是比较高的。

那么,有没有什么方法只用几行代码就能爬下所需数据呢?

答案是pandas。

自从知道了这个神器,尝试了多个网页数据爬取,屡战屡胜,简直不能再舒服!这家伙也太适合初学爬虫的小伙伴玩耍了吧!

定义

pandas中的pd.read_html()这个函数,功能非常强大,可以轻松实现抓取Table表格型数据。无需掌握正则表达式或者xpath等工具,短短的几行代码就可以将网页数据抓取下来。

原理

Table表格型数据网页结构

pandas适合抓取Table表格型数据,那么咱们首先得知道什么样的网页具有Table表格型数据结构(有html基础的大佬可自行跳过这一part)。

我们先来看个简单的例子。(快捷键F12可快速查看网页的HTML结构)
image

从以上网站可以看出,数据存储在一个table表格中,thread为表头,tbody为表格数据,tbody中的一个tr对应表中的一行,一个td对应一个表中元素。

我们再来看一个例子:
image

只要网页具有以上结构,你就可以尝试用pandas抓取数据。

pandas请求表格数据流程

image

针对网页结构类似的表格类型数据,pd.read_html可以将网页上的表格数据都抓取下来,并以DataFrame的形式装在一个list中返回。

pd.read_html语法及参数

基本语法:

pandas.read_html(io,match='.+',flavor=None,header=None,index_col=None,skiprows=None, attrs=None,
parse_dates=False, thousands=', ', encoding=None, decimal='.', converters=None, na_values=None, 
keep_default_na=True, displayed_only=True)

主要参数:

参数释义
io接收网址、文件、字符串
parse_dates解析日期
flavor解析器
header标题行
skiprows跳过的行属性,比如 attrs = {'id': 'table'}

实战

案例1:抓取世界大学排名(1页数据)

import pandas as pd 
import csv
url1 = 'http://www.compassedu.hk/qs'
df1 = pd.read_html(url1)[0]  #0表示网页中的第一个Table
df1.to_csv('世界大学综合排名.csv',index=0)

没错,5行代码,几秒钟就搞定,我们来预览下爬取到的数据:
image

案例2:抓取新浪财经基金重仓股数据(6页数据)

import pandas as pd
import csv
df2 = pd.DataFrame()
for i in range(6):url2 = 'http://vip.stock.finance.sina.com.cn/q/go.php/vComStockHold/kind/jjzc/index.phtml?p={page}'.format(page=i+1)df2 = pd.concat([df2,pd.read_html(url2)[0]])print('第{page}页抓取完成'.format(page = i + 1))
df2.to_csv('./新浪财经数据.csv',encoding='utf-8',index=0)

没错,8行代码搞定,还是那么简单。

我们来预览下爬取到的数据:
image

案例3:抓取证监会披露的IPO数据(217页数据)

import pandas as pdfrom pandas import DataFrameimport csvimport timestart = time.time() #程序计时df3 = DataFrame(data=None,columns=['公司名称','披露日期','上市地和板块','披露类型','查看PDF资料']) #添加列名for i in range(1,218):  url3 ='http://eid.csrc.gov.cn/ipo/infoDisplay.action?pageNo=%s&temp=&temp1=&blockType=byTime'%str(i)df3_1 = pd.read_html(url3,encoding='utf-8')[2]  #必须加utf-8,否则乱码df3_2 = df3_1.iloc[1:len(df3_1)-1,0:-1]  #过滤掉最后一行和最后一列(NaN列)df3_2.columns=['公司名称','披露日期','上市地和板块','披露类型','查看PDF资料'] #新的df添加列名df3 = pd.concat([df3,df3_2])  #数据合并print('第{page}页抓取完成'.format(page=i))
df3.to_csv('./上市公司IPO信息.csv', encoding='utf-8',index=0) #保存数据到csv文件
end = time.time()
print ('共抓取',len(df3),'家公司,' + '用时',round((end-start)/60,2),'分钟')

这里注意要对抓下来的Table数据进行过滤,主要用到iloc方法,详情可查看公众号往期原创文章「基础|Pandas常用知识点汇总(三)」。另外,我还加了个程序计时,方便查看爬取速度。

image

2分14秒爬下217页4334条数据,相当nice了。我们来预览下爬取到的数据:
image

需要注意的是,并不是所有表格都可以用pd.read_html爬取,有的网站表面上看起来是表格,但在网页源代码中不是table格式,而是list列表格式。

这种表格则不适用read_html爬取,得用其他的方法,比如selenium。
转载自:https://mp.weixin.qq.com/s?__biz=MzU5Nzg5ODQ3NQ==&mid=2247492327&idx=1&sn=746ec737072c9c9faba13cf11ef72652&chksm=fe4ec763c9394e75da16511370dea29569cbaef9b4945886b7ddaae76f73f7eff539d80fe718&mpshare=1&scene=1&srcid=0717v9tBSC5k5V7K65ROcCTU&sharer_sharetime=1594954536103&sharer_shareid=e276b2d70ea7b974e823f3c17dec9073&key=a9d862817bf2fb7fa1848e1ce50474e04b381839e5c54c2b6a90a00ced04a0dcc3cb5e7b10453593141452a14abd22b3e36ee3ad4d0d460af5f9d3092203d4de25088a3e9e0713cd03824f3917a06177&ascene=1&uin=Mjg3NDMwMDMyMg%3D%3D&devicetype=Windows+10+x64&version=62090529&lang=zh_CN&exportkey=AwpYh2vtO1qcT%2FldGZoo1ck%3D&pass_ticket=BLwFN%2BCc9dlCbUCr6v6KLsB4c191Laump7rmlVjgGare5%2FbG1hOFX5oc7viq4PYS


http://www.taodudu.cc/news/show-8358586.html

相关文章:

  • Nifi详细部署(配置文件,单节点,集群,性能优化)
  • 002-系统登录
  • JS和PHP和JAVA的正则表达式的区别(java没有分解符,java中的转义字符是\\)
  • html和php和java区别,JS和PHP和JAVA的正则表达式的区别(java没有分解符,java中的转义字符是\)...
  • Spring Boot简介及安装
  • 解决:项目无法读取src/main/java目录下面的配置文件问题
  • 心理测试类短信
  • 软件性能并发量测试,性能测试解惑之并发压力
  • 怎么识别手写文字图片?让你快速提升数据采集和处理效率
  • 还在找怎么识别手写文字图片?
  • 第一篇博客--尝试自我思考
  • 巴比特 | 元宇宙每日必读:618成绩已然揭晓,在这份还算满意的答卷背后,数字藏品做出了多少贡献?...
  • 春节娱乐大数据:这些场所成春节最热休闲场所!
  • 物联网市场发展飞速 连网照明有望成香饽饽
  • iNFTnews | 500万高薪不在话下,元宇宙人才成香饽饽?
  • QuickTime文件格式解析(mov、mp4)
  • QuickTime是什么?QuickTime怎么用?
  • Adobe Premiere Pro CC 2018打不开或载入importerQuickTime.prm时停止工作问题
  • TIKA提取mp4文件
  • [苹果开发者账号]07 申请小企业收益抽成补贴 可由30%降至15% Enroll in the App Store Small Business Program
  • DBnet源码解析
  • U-net源码讲解(Keras)
  • .NET源码解读kestrel服务器及创建HttpContext对象流程
  • 从写软件到买软件2
  • 【软件推荐】桌面应用程序exe打包合并
  • swf阅读插件
  • CSV,excel用python系列处理整理
  • 1对文件读写操作
  • numpy函数小节
  • 那些年走过的弯路
  • 这篇关于新奇!pandas爬虫?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



    http://www.chinasem.cn/article/418067

    相关文章

    关于pandas的read_csv方法使用解读

    《关于pandas的read_csv方法使用解读》:本文主要介绍关于pandas的read_csv方法使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录pandas的read_csv方法解读read_csv中的参数基本参数通用解析参数空值处理相关参数时间处理相关

    Pandas使用SQLite3实战

    《Pandas使用SQLite3实战》本文主要介绍了Pandas使用SQLite3实战,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录1 环境准备2 从 SQLite3VlfrWQzgt 读取数据到 DataFrame基础用法:读

    Python下载Pandas包的步骤

    《Python下载Pandas包的步骤》:本文主要介绍Python下载Pandas包的步骤,在python中安装pandas库,我采取的方法是用PIP的方法在Python目标位置进行安装,本文给大... 目录安装步骤1、首先找到我们安装python的目录2、使用命令行到Python安装目录下3、我们回到Py

    解读Pandas和Polars的区别及说明

    《解读Pandas和Polars的区别及说明》Pandas和Polars是Python中用于数据处理的两个库,Pandas适用于中小规模数据的快速原型开发和复杂数据操作,而Polars则专注于高效数据... 目录Pandas vs Polars 对比表使用场景对比Pandas 的使用场景Polars 的使用

    Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)

    《Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)》本文介绍了如何使用Python和Selenium结合ddddocr库实现图片验证码的识别和点击功能,感兴趣的朋友一起看... 目录1.获取图片2.目标识别3.背景坐标识别3.1 ddddocr3.2 打码平台4.坐标点击5.图

    Python使用Pandas对比两列数据取最大值的五种方法

    《Python使用Pandas对比两列数据取最大值的五种方法》本文主要介绍使用Pandas对比两列数据取最大值的五种方法,包括使用max方法、apply方法结合lambda函数、函数、clip方法、w... 目录引言一、使用max方法二、使用apply方法结合lambda函数三、使用np.maximum函数

    Pandas中多重索引技巧的实现

    《Pandas中多重索引技巧的实现》Pandas中的多重索引功能强大,适用于处理多维数据,本文就来介绍一下多重索引技巧,具有一定的参考价值,感兴趣的可以了解一下... 目录1.多重索引概述2.多重索引的基本操作2.1 选择和切片多重索引2.2 交换层级与重设索引3.多重索引的高级操作3.1 多重索引的分组聚

    在Pandas中进行数据重命名的方法示例

    《在Pandas中进行数据重命名的方法示例》Pandas作为Python中最流行的数据处理库,提供了强大的数据操作功能,其中数据重命名是常见且基础的操作之一,本文将通过简洁明了的讲解和丰富的代码示例,... 目录一、引言二、Pandas rename方法简介三、列名重命名3.1 使用字典进行列名重命名3.编

    Python使用Pandas库将Excel数据叠加生成新DataFrame的操作指南

    《Python使用Pandas库将Excel数据叠加生成新DataFrame的操作指南》在日常数据处理工作中,我们经常需要将不同Excel文档中的数据整合到一个新的DataFrame中,以便进行进一步... 目录一、准备工作二、读取Excel文件三、数据叠加四、处理重复数据(可选)五、保存新DataFram

    pandas数据过滤

    Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav