本文主要是介绍爬虫工作量由小到大的思维转变---<第五十七章 Scrapy 降维挖掘---中间件系列(6)>,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
前言:
继续上一篇:https://hsnd-91.blog.csdn.net/article/details/136978761
我们继续将探讨Scrapy框架中的三个重要中间件:HTTP压缩中间件、重定向中间件和Cookie中间件。
- 首先,HTTP压缩中间件(HttpCompressionMiddleware)能够处理服务器返回的经过压缩的响应内容,并自动进行解压缩,从中获取原始内容。这样的功能对于处理大规模的响应数据非常重要,可以节省带宽并提高爬取效率。
- 其次,重定向中间件(RedirectMiddleware)能够处理服务器返回的重定向响应,自动跟随重定向并获取正确的响应。这种中间件对于爬取过程中的网页跳转或链接重定向至关重要,它能够帮助我们轻松地处理这些情况,获取爬取所需的数据。
- 最后,Cookie中间件(CookiesMiddleware)具备管理请求和响应中的Cookie的功能。它负责发送包含正确Cookie的请求,并在接收响应时更新Cookie。对于需要在多个请求中保持会话状态或进行用户认证的网站爬取,Cookie中间件发挥着关键作用,帮助我们维护正确的Cookie信息,确保爬虫顺利运行。
通过深入了解和使用这些中间件,我们能够更好地控制和管理爬虫过程中的请求和响应,提高爬取的成功率和数据的完整性。
正文:
1 HTTP压缩中间件(HttpCompressionMiddleware)
1.1 HTTP压缩的概念与作用
在网络传输中,数据量较大的响应会占用较多的带宽和传输时间。为了减少传输的数据量,提高网络传输效率,HTTP协议支持使用压缩算法对响应内容进行压缩,减小数据体积。HTTP压缩的作用是通过对响应内容进行压缩,降低响应的大小,从而减少网络传输的数据量,加快数据传输速度。
1.2 HttpCompressionMiddleware的功能与优势
HttpCompressionMiddleware是Scrapy框架中的一个中间件,它提供了对服务器返回的经过压缩的响应内容进行解压缩的功能。它的功能与优势包括:
- 自动解压缩:HttpCompressionMiddleware会检查服务器返回的响应头中是否包含压缩算法(如Gzip、Deflate),并对压缩的响应内容进行自动解压缩,获取原始内容。
- 减小数据体积:经过解压缩后的响应内容大小较原始压缩内容更小,可以减少网络传输的数据量,节省带宽资源。
- 加速响应处理:压缩后的响应内容占用更小的空间,相对于传输大量未压缩的数据,可以更快地进行数据传输和处理。
- 提高爬取效率:由于数据体积减小,爬虫可以更快地获取响应内容,从而加快爬取速度和提高爬取效率。
1.3 HttpCompressionMiddleware的配置与使用
要使用HttpCompressionMiddleware,需将其添加到Scrapy项目的中间件列表中,按照以下配置步骤进行配置和使用:
- 步骤1:在项目的settings.py文件中,找到
DOWNLOADER_MIDDLEWARES
配置项,并添加HttpCompressionMiddleware:
DOWNLOADER_MIDDLEWARES = {'scrapy.contrib.downloadermiddleware.httpcompression.HttpCompressionMiddleware': 590,
}
将HttpCompressionMiddleware添加到middleware字典中,并为其指定数字优先级(数字越小,优先级越高)。
- 步骤2:保存并关闭settings.py文件。现在,Scrapy将在每个下载请求中自动应用HttpCompressionMiddleware。
1.4 示例:使用HttpCompressionMiddleware处理经过压缩的响应
以下是一个使用HttpCompressionMiddleware处理经过压缩的响应的实例:
首先,创建一个名为compression_example
的Scrapy项目:
scrapy startproject compression_example
进入项目目录,并新建一个名为compression_spider.py
的Spider文件:
import scrapyclass CompressionSpider(scrapy.Spider):name = 'compression'start_urls = ['http://example.com/']def parse(self, response):self.logger.info(f"Response body size: {len(response.body)}")yield {'content': response.text}
我们创建了一个简单的Spider,用于爬取http://example.com/
页面的响应内容。
接下来,运行以下命令启动爬虫:
scrapy crawl compression
当爬虫运行时,HttpCompressionMiddleware将会自动检测请求的响应是否经过压缩。如果服务器返回的响应经过压缩,HttpCompressionMiddleware将解压缩响应内容,并输出解压缩后的内容大小。在日志中,我们可以看到类似以下的输出信息:
INFO:root:Response body size: 1234
通过HttpCompressionMiddleware,我们不需要额外的代码或配置即可自动处理经过压缩的响应,并获取原始内容。这样,我们就可以在爬虫中使用解压缩后的响应,例如提取需要的数据。
ps: 如果服务器返回的响应已经是未经压缩的内容,HttpCompressionMiddleware将不会进行解压缩操作,并直接将响应传递给爬虫进行处理。
这个示例展示了如何使用HttpCompressionMiddleware处理经过压缩的响应。通过使用这个中间件,我们可以轻松地在爬取过程中处理压缩的响应,减小数据体积并提高爬取效率。
!!!记住,要使用HttpCompressionMiddleware,确保已经正确配置了中间件,并且服务器返回的响应确实经过了压缩。这样,你就可以享受到HTTP压缩带来的好处,优化网络传输并提高爬取效率。!!!
2 重定向中间件(RedirectMiddleware)
2.1 重定向的概念与作用
在网络请求过程中,服务器可能会返回一个重定向响应,指示客户端访问另一个URL。重定向是一种常见的HTTP特性,用于跳转到新的URL,提供更好的用户体验和导航。通过重定向,可以执行页面的自动跳转、URL的规范化、网站的访问控制和错误处理等操作。
2.2 RedirectMiddleware的功能与优势
RedirectMiddleware是Scrapy框架中的一个中间件,它用于处理服务器返回的重定向响应。它的功能与优势包括:
- 自动重定向:RedirectMiddleware会检查服务器返回的响应是否为重定向响应,如果是,它会自动根据重定向的URL发送新的请求。
- URL规范化:RedirectMiddleware可以将URL进行规范化处理,确保重定向后的URL符合一致的格式和标准,提升爬虫的稳定性和可维护性。
- 提高爬虫效率:通过自动处理重定向,RedirectMiddleware可以减少需要手动处理重定向的工作量,加快爬取速度和提高爬取效率。
- 简化爬虫代码:通过使用RedirectMiddleware,爬虫代码不需要处理具体的重定向逻辑,使代码更加简洁和易读。
2.3 RedirectMiddleware的配置与使用
要使用RedirectMiddleware,需要将其添加到Scrapy项目的中间件列表中,并根据需要进行配置。以下是配置与使用RedirectMiddleware的步骤:
- 步骤1:在项目的settings.py文件中,找到
DOWNLOADER_MIDDLEWARES
配置项,并添加RedirectMiddleware:
DOWNLOADER_MIDDLEWARES = {'scrapy.downloadermiddlewares.redirect.RedirectMiddleware': 100,
}
将RedirectMiddleware添加到中间件字典中,并为其指定数字优先级(数字越小,优先级越高)。
- 步骤2:保存并关闭settings.py文件。现在,Scrapy将在每个下载请求中自动应用RedirectMiddleware。
2.4 示例:使用RedirectMiddleware处理服务器的重定向响应
下面以一个示例来说明如何使用RedirectMiddleware处理服务器的重定向响应。
- 首先,我们创建一个名为
redirect_example
的Scrapy项目:
scrapy startproject redirect_example
- 接下来,进入项目目录,并新建一个名为
redirect_spider.py
的Spider文件,添加以下代码:
import scrapyclass RedirectSpider(scrapy.Spider):name = 'redirect'start_urls = ['http://example.com/redirect']def parse(self, response):self.logger.info("Original URL: %s", response.url)yield {'content': response.text}
在上述示例中,我们创建了一个简单的Spider,用于爬取http://example.com/redirect
页面的内容。该URL会返回一个重定向响应,跳转到新的URL。
运行以下命令启动爬虫:
scrapy crawl redirect
当爬虫运行时,RedirectMiddleware会自动检测服务器返回的响应是否为重定向响应。如果是,RedirectMiddleware将根据重定向的URL发送新的请求,并在日志中输出原始URL和重定向后的URL信息。
通过上述示例,我们可以看到RedirectMiddleware的处理过程:
- 发起初始请求到
http://example.com/redirect
。 - 检测到服务器返回的是一个重定向响应。
- RedirectMiddleware自动根据重定向的URL发送新的请求。
- 解析新的响应,并将内容保存。
在日志中,我们可以看到类似以下的输出信息:
INFO:root:Original URL: http://example.com/redirect
INFO:root:Redirecting to http://example.com/new_url
这表示重定向的过程已经成功地被RedirectMiddleware处理了。现在,爬虫将继续处理重定向后的URL,并解析新的响应。
通过以上示例,我们展示了如何使用RedirectMiddleware处理服务器的重定向响应。通过配置和使用RedirectMiddleware,我们可以简化爬虫代码,提高爬取效率,并自动处理重定向,使爬虫更加稳定和可靠。
ps: RedirectMiddleware是Scrapy框架内置的一个中间件,无需额外安装即可使用。它在常规的爬虫开发中发挥着重要的作用,尤其在处理需要跳转的URL时。
3 Cookie中间件(CookiesMiddleware)
3.1 Cookie的概念与作用
Cookie是一种存储在客户端(通常是浏览器)中的小型文本文件,用于跟踪和存储用户在网站上的信息。当用户访问网站时,服务器可以向客户端发送一个包含Cookie的响应,客户端会将Cookie存储起来,并在后续的请求中将Cookie发送回服务器。Cookie的作用包括:
- 会话管理:Cookie可以用于在用户会话之间跟踪状态信息。例如,用户登录后,服务器可以使用Cookie存储用户身份验证令牌,以便在后续请求中验证用户的身份。
- 个性化体验:Cookie可以存储用户的首选项和设置,用于提供个性化的网站体验。例如,网站可以记住用户的语言偏好或主题选择。
- 购物车功能:当用户在电子商务网站上添加商品到购物车时,Cookie可以用于存储购物车中的商品信息,以便在用户下次访问时保持购物车的状态。
- 追踪和分析:通过在Cookie中存储跟踪标识符,网站可以分析用户的行为和访问模式,用于改进产品和优化内容。
- 广告定向:许多广告商使用Cookie追踪用户的广告偏好和兴趣,以便提供针对性的广告。
3.2 CookiesMiddleware的功能与优势
CookiesMiddleware是Scrapy框架中的一个中间件,用于处理请求和响应中的Cookie信息。它的主要功能和优势包括:
- 管理Cookie:CookiesMiddleware自动管理请求和响应中的Cookie,确保Cookie正确发送到服务器,并在后续请求中自动携带Cookie信息。
- 会话维护:CookiesMiddleware可以跟踪和维护会话状态,在连续的请求之间保持会话的一致性。它可以根据服务器的响应更新和添加Cookie,并在发送请求时携带相应的Cookie。
- 配置灵活:CookiesMiddleware提供了一些配置选项,例如设置Cookie的存储位置、Expiry时间和域范围等。这使得使用CookiesMiddleware更加灵活和适应不同的需求。
- 代码简洁:通过使用CookiesMiddleware,爬虫代码无需手动处理Cookie的提取、存储和发送。中间件会自动处理Cookie的生命周期,减少开发人员的工作量。
3.3. CookiesMiddleware的配置与使用
要使用CookiesMiddleware,需要将其添加到Scrapy项目的中间件列表中,并根据需要进行配置。以下是配置和使用CookiesMiddleware的步骤:
- 步骤1:在项目的settings.py文件中,找到
DOWNLOADER_MIDDLEWARES
配置项,并将CookiesMiddleware添加到列表中:
DOWNLOADER_MIDDLEWARES = {'scrapy.downloadermiddlewares.cookies.CookiesMiddleware': 700,
}
将CookiesMiddleware添加到中间件字典中,并为其指定数字优先级(默认为700,可以根据需要调整优先级)。
- 步骤2:保存并关闭settings.py文件。现在,Scrapy将在每个下载请求中自动应用CookiesMiddleware,并处理请求和响应中的Cookie信息。
3.4 示例:使用CookiesMiddleware管理请求和响应中的Cookie
演示如何使用CookiesMiddleware在Scrapy项目中管理请求和响应中的Cookie。我们将创建一个爬虫来登录一个虚拟网站并爬取登录后的页面。
- 首先,我们创建一个新的Scrapy项目:
scrapy startproject cookies_example
- 接下来,进入项目目录,并创建一个名为
login_spider.py
的Spider文件,添加以下代码:
import scrapyclass LoginSpider(scrapy.Spider):name = 'login'start_urls = ['http://example.com/login']def parse(self, response):# 获取登录页面的表单数据csrf_token = response.css('input[name="csrf_token"]::attr(value)').get()formdata = {'username': 'your_username','password': 'your_password','csrf_token': csrf_token}# 提交登录请求yield scrapy.FormRequest(url='http://example.com/login', formdata=formdata, callback=self.after_login)def after_login(self, response):# 检查登录是否成功if response.status == 200 and "Welcome" in response.text:self.logger.info("Login successful!")# 在登录后的页面进行进一步爬取# ...else:self.logger.info("Login failed!")
在这个示例中,我们首先发送一个GET请求到登录页面,并从响应中获取到表单的CSRF令牌(隐含的安全性措施)。然后,我们手动构建表单数据,并使用scrapy.FormRequest()发送一个POST请求以完成登录。在登录请求的回调函数after_login()中,我们检查响应状态和内容,判断登录是否成功。
现在,我们需要配置CookiesMiddleware以自动处理请求和响应中的Cookie。打开项目的settings.py文件,添加以下配置项:
DOWNLOADER_MIDDLEWARES = {'scrapy.downloadermiddlewares.cookies.CookiesMiddleware': 700,
}
爬虫将发送登录请求,并自动处理返回的Cookie。在登录成功后,你可以在after_login()函数中进一步爬取您想要的内容。
通过使用CookiesMiddleware,我们能够方便地管理请求和响应中的Cookie,从而简化了爬虫代码。这使得处理会话状态和登录等任务变得更加简单和可靠。
总结
Scrapy框架中三个重要的中间件:HTTP压缩中间件、重定向中间件和Cookie中间件的功能和使用方法。
- 首先,HTTP压缩中间件能够处理经过压缩的响应内容,自动解压缩并获取原始内容。这对于处理大规模的响应数据非常重要,可以节省带宽并提高爬取效率。
- 其次,重定向中间件能够处理服务器返回的重定向响应,自动跟随重定向并获取正确的响应。这对于处理网页跳转或链接重定向至关重要,帮助我们轻松地获取爬取所需的数据。
- 最后,Cookie中间件具备管理请求和响应中的Cookie的功能。它负责发送包含正确Cookie的请求,并在接收响应时更新Cookie。对于需要保持会话状态或进行用户认证的网站爬取,Cookie中间件发挥着关键作用,帮助我们维护正确的Cookie信息,确保爬虫顺利运行。
通过深入了解和使用这些中间件,我们能够更好地控制和管理爬虫过程中的请求和响应,提高爬取的成功率和数据的完整性。使用HTTP压缩中间件可以减小数据体积、加速响应处理和提高爬取效率;重定向中间件可以自动跟随重定向获取正确的响应;Cookie中间件则能够自动处理Cookie信息,方便会话维护和用户认证。
总之,了解并灵活使用这些中间件将使爬虫开发更加高效和可靠。
这篇关于爬虫工作量由小到大的思维转变---<第五十七章 Scrapy 降维挖掘---中间件系列(6)>的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!