python爬虫实战1-获取当当网近30日好评榜前500本书籍

2024-05-12 23:18

本文主要是介绍python爬虫实战1-获取当当网近30日好评榜前500本书籍,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、首先打开当当网,点击好评榜,选择近30日,此时浏览器中的URL复制一下,备用

http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-1

2、每一页显示20本书,点击下一页可以发现URL变化了,但是只有最后一个数变化,http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-2,对应页数

3、F12打开开发者工具,选取页面中的元素,像下面的截图一样,可以找到对应的内容所对应的html代码,这样子到时候就可以通过正则匹配到我们想要的元素了

4、说完思路就可以写代码了,python部分,用到requests模块,获取到页面代码之后,通过正则匹配到对应的内容,最后保存到文本中。

5、首先要获取页面的html代码

def get_html(url):# 设置请求头,从浏览器复制的,可以没有headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36"}try:response = requests.get(url, headers=headers)if response.status_code == 200:return response.textexcept Exception as e:print(e)return False

6、获取到html后就需要用正则匹配获取想要的内容啦,用yield可以节约内存

def parse_result(html):pattern = re.compile(r'<li>.*?list_num.*?(\d+).</div>.*?<img src="(.*?)".*?title="(.*?)".*?<span class="tuijian">'r'(.*?)</span>.*?class="publisher_info">.*?target="_blank">(.*?)</a>.*?class="biaosheng">'r'.*?<span>(.*?)</span>.*?class="price_n">&yen;(.*?)</span>', re.S)items = re.findall(pattern, html)for item in items:yield {"range": item[0],"img": item[1],"title": item[2],"recommend": item[3],"author": item[4],"star": item[5],"price": item[6]}

7、获取到内容之后呢,就可以写入文本啦

def write_item_to_file(item):print("write data to book.txt")with open(PATH, 'a', encoding="UTF-8") as f:f.write(json.dumps(item, ensure_ascii=False) + '\n')

8、整个串起来,这样就把一页的内容提取出来并存到文本中啦

def get_books_info_of_current_page(page):url = "http://bang.dangdang.com/books/fivestars/01.00.00.00.00.00-recent30-0-0-1-" + str(page)html = get_html(url)if html:items = parse_result(html)for item in items:write_item_to_file(item)else:print("get {} page failed".format(page))

9、最后取25页,就是排名前500的书籍啦

if __name__ == '__main__':if os.path.exists(PATH):os.remove(PATH)for i in range(1, 26):get_books_info_of_current_page(i)

10、看看出来的效果吧,

这篇关于python爬虫实战1-获取当当网近30日好评榜前500本书籍的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/984019

相关文章

Python脚本实现自动删除C盘临时文件夹

《Python脚本实现自动删除C盘临时文件夹》在日常使用电脑的过程中,临时文件夹往往会积累大量的无用数据,占用宝贵的磁盘空间,下面我们就来看看Python如何通过脚本实现自动删除C盘临时文件夹吧... 目录一、准备工作二、python脚本编写三、脚本解析四、运行脚本五、案例演示六、注意事项七、总结在日常使用

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Python进阶之Excel基本操作介绍

《Python进阶之Excel基本操作介绍》在现实中,很多工作都需要与数据打交道,Excel作为常用的数据处理工具,一直备受人们的青睐,本文主要为大家介绍了一些Python中Excel的基本操作,希望... 目录概述写入使用 xlwt使用 XlsxWriter读取修改概述在现实中,很多工作都需要与数据打交

在C#中获取端口号与系统信息的高效实践

《在C#中获取端口号与系统信息的高效实践》在现代软件开发中,尤其是系统管理、运维、监控和性能优化等场景中,了解计算机硬件和网络的状态至关重要,C#作为一种广泛应用的编程语言,提供了丰富的API来帮助开... 目录引言1. 获取端口号信息1.1 获取活动的 TCP 和 UDP 连接说明:应用场景:2. 获取硬

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Golang操作DuckDB实战案例分享

《Golang操作DuckDB实战案例分享》DuckDB是一个嵌入式SQL数据库引擎,它与众所周知的SQLite非常相似,但它是为olap风格的工作负载设计的,DuckDB支持各种数据类型和SQL特性... 目录DuckDB的主要优点环境准备初始化表和数据查询单行或多行错误处理和事务完整代码最后总结Duck

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

利用Python编写一个简单的聊天机器人

《利用Python编写一个简单的聊天机器人》这篇文章主要为大家详细介绍了如何利用Python编写一个简单的聊天机器人,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 使用 python 编写一个简单的聊天机器人可以从最基础的逻辑开始,然后逐步加入更复杂的功能。这里我们将先实现一个简单的

基于Python开发电脑定时关机工具

《基于Python开发电脑定时关机工具》这篇文章主要为大家详细介绍了如何基于Python开发一个电脑定时关机工具,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. 简介2. 运行效果3. 相关源码1. 简介这个程序就像一个“忠实的管家”,帮你按时关掉电脑,而且全程不需要你多做