爬虫工作量由小到大的思维转变---<第四十八章 Scrapy 的请求和follow问题>

本文主要是介绍爬虫工作量由小到大的思维转变---<第四十八章 Scrapy 的请求和follow问题>,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:

有时,在爬取网页的时候,页面可能只能提取到对应的url,但是具体需要提取的信息需要到下一页(url)里面; 这时候,不要在中间件去requests请求去返回response; 用这个方法....

正文:

在Scrapy框架内,如果你想从一个页面提取URL,然后跳转到这个URL以提取数据,最佳做法是

使用Scrapy的请求和回调系统,而不是通过外部的requests库跳转

使用Scrapy的内建方法不仅能更好地利用Scrapy的异步处理能力,而且还能保持Scrapy中间件和项目设置(如Cookies处理、请求延迟、并发请求等)的一致性。

步骤:

从一级页面跳转到二级页面

假设你在一级页面解析方法中(如:parse方法),提取了一个或多个二级页面的URL。你可以使用response.follow方法生成对二级页面的请求,并指定一个回调方法来处理这些页面的响应。

import scrapyclass MySpider(scrapy.Spider):name = 'my_spider'start_urls = ['http://example.com']  # 一级页面URLdef parse(self, response):# 提取二级页面的URLnext_page_url = response.css('a.next_page::attr(href)').get()  # 假设二级页面URL是这样提取的if next_page_url is not None:# 使用response.follow跳转到二级页面yield response.follow(next_page_url, self.parse_second_page)def parse_second_page(self, response):# 在这里处理二级页面的响应pass

使用Scrapy请求(Request)和回调

如果你需要更多控制(比如添加特定的请求头、Cookies等),也可以直接使用scrapy.Request来创建请求。

yield scrapy.Request(url=next_page_url, callback=self.parse_second_page)

在这段代码中,url参数是你要请求的二级页面的URL,callback参数指定了一个方法(在这个例子中是self.parse_second_page方法),这个方法将会被调用来处理响应。

两者区别和优点:

在Scrapy框架中,response.followscrapy.Request都用于生成对其他页面的请求,但他们在使用上有些微妙的区别与优点。理解这些差异有助于在不同情况下做出更合适的选择。

scrapy.Request

scrapy.Request是Scrapy中生成请求的基本方法。它允许你创建一个请求到指定的URL。scrapy.Request提供了高度的灵活性,允许你指定请求方法(如GET或POST),添加请求头,发送表单数据,设置回调函数处理响应等。

用法示例:
import scrapyclass MySpider(scrapy.Spider):name = 'example_spider'def start_requests(self):urls = ['http://example.com/page1', 'http://example.com/page2']for url in urls:# 指定请求的回调方法为parse方法yield scrapy.Request(url=url, callback=self.parse)def parse(self, response):# 处理响应的逻辑pass

response.follow

response.follow是在Scrapy 1.4.0版本中引入的,相比于scrapy.Request,它提供了一些简化和额外的便利性。主要的便利之处在于不需要完整的URL,response.follow会自动补全相对URL。它也允许直接传递一个选择器或链接提取器(比如response.cssresponse.xpath的结果),而Scrapy会从中提取URL。此外,response.follow继承了当前响应的一些属性,例如编码、cookies等。

用法示例:
class MySpider(scrapy.Spider):name = 'example_spider'start_urls = ['http://example.com']def parse(self, response):# 使用选择器确定下一个URLnext_page = response.css('a::attr(href)').get()if next_page is not None:# 不需要提供完整的URLyield response.follow(next_page, callback=self.parse_other_page)def parse_other_page(self, response):# 处理其他页面的逻辑pass

或者从一组链接中生成多个请求:

for href in response.css('ul.items a::attr(href)'):yield response.follow(href, self.parse_item)

主要区别

  • URL处理scrapy.Request需要完整的URL,而response.follow可以接受相对URL,自动补全为绝对URL。
  • 便利性response.follow允许直接传递选择器或链接提取器的结果,而scrapy.Request则需要先提取URL。
  • 继承属性response.follow继承了当前响应的某些属性,如编码、cookies等,而用scrapy.Request时需要手动指定。

总结

  • 当你有一个完整的URL或需要更多控制请求(比如改变请求方法或添加特定的头部信息)时,使用scrapy.Request
  • 当你要处理相对URL或者希望从当前响应中继承属性时,使用response.follow更方便简洁。

选择使用哪个主要取决于具体场景和对便利性与灵活性的需求。

这篇关于爬虫工作量由小到大的思维转变---<第四十八章 Scrapy 的请求和follow问题>的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/745057

相关文章

关于@MapperScan和@ComponentScan的使用问题

《关于@MapperScan和@ComponentScan的使用问题》文章介绍了在使用`@MapperScan`和`@ComponentScan`时可能会遇到的包扫描冲突问题,并提供了解决方法,同时,... 目录@MapperScan和@ComponentScan的使用问题报错如下原因解决办法课外拓展总结@

MybatisGenerator文件生成不出对应文件的问题

《MybatisGenerator文件生成不出对应文件的问题》本文介绍了使用MybatisGenerator生成文件时遇到的问题及解决方法,主要步骤包括检查目标表是否存在、是否能连接到数据库、配置生成... 目录MyBATisGenerator 文件生成不出对应文件先在项目结构里引入“targetProje

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

Java内存泄漏问题的排查、优化与最佳实践

《Java内存泄漏问题的排查、优化与最佳实践》在Java开发中,内存泄漏是一个常见且令人头疼的问题,内存泄漏指的是程序在运行过程中,已经不再使用的对象没有被及时释放,从而导致内存占用不断增加,最终... 目录引言1. 什么是内存泄漏?常见的内存泄漏情况2. 如何排查 Java 中的内存泄漏?2.1 使用 J

numpy求解线性代数相关问题

《numpy求解线性代数相关问题》本文主要介绍了numpy求解线性代数相关问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 在numpy中有numpy.array类型和numpy.mat类型,前者是数组类型,后者是矩阵类型。数组

解决systemctl reload nginx重启Nginx服务报错:Job for nginx.service invalid问题

《解决systemctlreloadnginx重启Nginx服务报错:Jobfornginx.serviceinvalid问题》文章描述了通过`systemctlstatusnginx.se... 目录systemctl reload nginx重启Nginx服务报错:Job for nginx.javas

Java后端接口中提取请求头中的Cookie和Token的方法

《Java后端接口中提取请求头中的Cookie和Token的方法》在现代Web开发中,HTTP请求头(Header)是客户端与服务器之间传递信息的重要方式之一,本文将详细介绍如何在Java后端(以Sp... 目录引言1. 背景1.1 什么是 HTTP 请求头?1.2 为什么需要提取请求头?2. 使用 Spr

Redis缓存问题与缓存更新机制详解

《Redis缓存问题与缓存更新机制详解》本文主要介绍了缓存问题及其解决方案,包括缓存穿透、缓存击穿、缓存雪崩等问题的成因以及相应的预防和解决方法,同时,还详细探讨了缓存更新机制,包括不同情况下的缓存更... 目录一、缓存问题1.1 缓存穿透1.1.1 问题来源1.1.2 解决方案1.2 缓存击穿1.2.1

vue解决子组件样式覆盖问题scoped deep

《vue解决子组件样式覆盖问题scopeddeep》文章主要介绍了在Vue项目中处理全局样式和局部样式的方法,包括使用scoped属性和深度选择器(/deep/)来覆盖子组件的样式,作者建议所有组件... 目录前言scoped分析deep分析使用总结所有组件必须加scoped父组件覆盖子组件使用deep前言

解决Cron定时任务中Pytest脚本无法发送邮件的问题

《解决Cron定时任务中Pytest脚本无法发送邮件的问题》文章探讨解决在Cron定时任务中运行Pytest脚本时邮件发送失败的问题,先优化环境变量,再检查Pytest邮件配置,接着配置文件确保SMT... 目录引言1. 环境变量优化:确保Cron任务可以正确执行解决方案:1.1. 创建一个脚本1.2. 修