Python爬虫实战(1) | 爬取豆瓣网排名前250的电影(上)

2024-03-09 06:32

本文主要是介绍Python爬虫实战(1) | 爬取豆瓣网排名前250的电影(上),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

今天我们来爬取一下豆瓣网上排名前250的电影。

需求:爬取豆瓣网上排名前250的电影,然后将结果保存至一个记事本里。

开发环境:

python3.9

pycharm2021专业版

我们先观察网页,看看它的url规律:

第一页:https://movie.douban.com/top250?start=0&filter=

第二页:https://movie.douban.com/top250?start=25&filter=

第三页:https://movie.douban.com/top250?start=50&filter=

不难看出,页数每次加1,url里面start的值就加20,一共有10页,start的值最大为225。

这是因为1页里面有25部电影。一共有10页,也就是250部电影。

接着我们再看看要获取电影的名称的html内容规律:

按住键盘的F12键,进入到网页的审查元素板块

img

点击右上角的图标之后回到网页进行点击网页内的一个元素,进行元素审查

img

img

这里我们点击电影名称,就能获得它的html内容了

接着我们看下它的规律,方便后续的正则匹配:

<span class="title">肖申克的救赎</span>
<span class="title">霸王别姬</span>

之后导入我们的urllib模块和re模块

  • urllib.request 模块:提供了最基本的构造 HTTP 请求的方法,利用它可以模拟浏览器的一个请求发起过程,同时它还带有处理 authenticaton (授权验证), redirections (重定向), cookies (浏览器Cookies)以及其它内容
  • urllib.error模块:用来捕获异常
  • re模块:正则表达式,来匹配要获取的资源
import urllib.request
import urllib.error
import re

我的代码总共分为四个部分:

主函数

if __name__ == "__main__":pass

get_pages()函数:

用来发送网络请求,获取所需网页内容

def get_pages(url):pass

parse_content()函数:

对返回到的网页内容进行解析,再通过正则表达式匹配规则来获得所需要的网络资源:电影名称

def parse_content(content):pass

print_list()函数:

将获得到的电影列表写进一个记事本里

def print_list(url):pass

主函数

根据上文给出的url规律来设置while循环,让页数从0开始每次循环都加25,最大值为225。

之后调用print_list()函数

 if __name__ == "__main__":pages = 0while pages <= 225:url = 'https://movie.douban.com/top250?start=%s' % pagesprint("正在爬取数据..........")pages += 25print_list(url)print("爬取完毕!")

get_pages()函数

防止网站有反爬虫机制,我们需要模拟浏览器来进行访问。

在网页的审查元素中找到user-Agent,写进去

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36 Edg/91.0.864.41'}

发起请求并返回网页html内容

.....try:response = urllib.request.Request(url, headers=headers)content = urllib.request.urlopen(response).read()except urllib.error.URLError as e:print("爬取%s失败......................")%urlprint('错误原因:'+e.reason)else:return content

parse_content()函数

正则匹配

pattern = re.compile(r'<span class="title">(.*?)</span>')
movies_list = re.findall(pattern, content)

print_list()函数

将电影名单写进一个记事本里,同时还要注意内容换行

 with open('豆瓣电影前250.txt', 'w', encoding='utf-8') as file:for i in movies_list:file.write(i+'\r\n')

源码

import urllib.request
import urllib.error
import re
​
​
def get_pages(url):"""返回所要爬取网页的html内容"""headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36 Edg/91.0.864.41'}try:response = urllib.request.Request(url, headers=headers)content = urllib.request.urlopen(response).read()except urllib.error.URLError as e:print("爬取%s失败......................")%urlprint('错误原因:'+e.reason)else:return content
​
​
def parse_content(content):"""对返回到的内容进行解析,获取所要资源:电影名称,并且放进列表里面"""content = content.decode('utf-8')pattern = re.compile(r'<span class="title">(.*?)</span>')movies_list = re.findall(pattern, content)return movies_list
​
​
def print_list(url):"""打印电影名单,并写入文件里面"""content = get_pages(url)movies_list = parse_content(content)with open('豆瓣电影前250.txt', 'w', encoding='utf-8') as file:for i in movies_list:file.write(i+'\r\n')
​
​
if __name__ == "__main__":"""爬取豆瓣网排名前250的电影"""pages = 0while pages <= 225:url = 'https://movie.douban.com/top250?start=%s' % pagesprint("正在爬取数据..........")pages += 25print_list(url)print("爬取完毕!")

我们来看一下结果

img

img

我们可以看到,结果并不是很如我们所愿,这是为什么呢?

我们重新查看网页元素,发现了这么一个现象

img

我们的正则匹配规则是这样的

pattern = re.compile(r'<span class="title">(.*?)</span>')

可以看到,这个匹配规则会将上面这两个网页元素一起匹配出来,就会导致我的爬取出来的电影列表里有这样一串不知名字符串。

那么有没有更好的办法呢?

肯定是有的,在下一集我们将使用一个俗称“靓汤”的模块,有了这个模块,我们的问题可以彻底解决,并且让我们爬虫更加得心应手。

这篇关于Python爬虫实战(1) | 爬取豆瓣网排名前250的电影(上)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/789792

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

hdu 2093 考试排名(sscanf)

模拟题。 直接从教程里拉解析。 因为表格里的数据格式不统一。有时候有"()",有时候又没有。而它也不会给我们提示。 这种情况下,就只能它它们统一看作字符串来处理了。现在就请出我们的主角sscanf()! sscanf 语法: #include int sscanf( const char *buffer, const char *format, ... ); 函数sscanf()和

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

滚雪球学Java(87):Java事务处理:JDBC的ACID属性与实战技巧!真有两下子!

咦咦咦,各位小可爱,我是你们的好伙伴——bug菌,今天又来给大家普及Java SE啦,别躲起来啊,听我讲干货还不快点赞,赞多了我就有动力讲得更嗨啦!所以呀,养成先点赞后阅读的好习惯,别被干货淹没了哦~ 🏆本文收录于「滚雪球学Java」专栏,专业攻坚指数级提升,助你一臂之力,带你早日登顶🚀,欢迎大家关注&&收藏!持续更新中,up!up!up!! 环境说明:Windows 10

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该