爬虫工作量由小到大的思维转变---<第四十八章 Scrapy 的请求和follow问题>

本文主要是介绍爬虫工作量由小到大的思维转变---<第四十八章 Scrapy 的请求和follow问题>,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:

有时,在爬取网页的时候,页面可能只能提取到对应的url,但是具体需要提取的信息需要到下一页(url)里面; 这时候,不要在中间件去requests请求去返回response; 用这个方法....

正文:

在Scrapy框架内,如果你想从一个页面提取URL,然后跳转到这个URL以提取数据,最佳做法是

使用Scrapy的请求和回调系统,而不是通过外部的requests库跳转

使用Scrapy的内建方法不仅能更好地利用Scrapy的异步处理能力,而且还能保持Scrapy中间件和项目设置(如Cookies处理、请求延迟、并发请求等)的一致性。

步骤:

从一级页面跳转到二级页面

假设你在一级页面解析方法中(如:parse方法),提取了一个或多个二级页面的URL。你可以使用response.follow方法生成对二级页面的请求,并指定一个回调方法来处理这些页面的响应。

import scrapyclass MySpider(scrapy.Spider):name = 'my_spider'start_urls = ['http://example.com']  # 一级页面URLdef parse(self, response):# 提取二级页面的URLnext_page_url = response.css('a.next_page::attr(href)').get()  # 假设二级页面URL是这样提取的if next_page_url is not None:# 使用response.follow跳转到二级页面yield response.follow(next_page_url, self.parse_second_page)def parse_second_page(self, response):# 在这里处理二级页面的响应pass

使用Scrapy请求(Request)和回调

如果你需要更多控制(比如添加特定的请求头、Cookies等),也可以直接使用scrapy.Request来创建请求。

yield scrapy.Request(url=next_page_url, callback=self.parse_second_page)

在这段代码中,url参数是你要请求的二级页面的URL,callback参数指定了一个方法(在这个例子中是self.parse_second_page方法),这个方法将会被调用来处理响应。

两者区别和优点:

在Scrapy框架中,response.followscrapy.Request都用于生成对其他页面的请求,但他们在使用上有些微妙的区别与优点。理解这些差异有助于在不同情况下做出更合适的选择。

scrapy.Request

scrapy.Request是Scrapy中生成请求的基本方法。它允许你创建一个请求到指定的URL。scrapy.Request提供了高度的灵活性,允许你指定请求方法(如GET或POST),添加请求头,发送表单数据,设置回调函数处理响应等。

用法示例:
import scrapyclass MySpider(scrapy.Spider):name = 'example_spider'def start_requests(self):urls = ['http://example.com/page1', 'http://example.com/page2']for url in urls:# 指定请求的回调方法为parse方法yield scrapy.Request(url=url, callback=self.parse)def parse(self, response):# 处理响应的逻辑pass

response.follow

response.follow是在Scrapy 1.4.0版本中引入的,相比于scrapy.Request,它提供了一些简化和额外的便利性。主要的便利之处在于不需要完整的URL,response.follow会自动补全相对URL。它也允许直接传递一个选择器或链接提取器(比如response.cssresponse.xpath的结果),而Scrapy会从中提取URL。此外,response.follow继承了当前响应的一些属性,例如编码、cookies等。

用法示例:
class MySpider(scrapy.Spider):name = 'example_spider'start_urls = ['http://example.com']def parse(self, response):# 使用选择器确定下一个URLnext_page = response.css('a::attr(href)').get()if next_page is not None:# 不需要提供完整的URLyield response.follow(next_page, callback=self.parse_other_page)def parse_other_page(self, response):# 处理其他页面的逻辑pass

或者从一组链接中生成多个请求:

for href in response.css('ul.items a::attr(href)'):yield response.follow(href, self.parse_item)

主要区别

  • URL处理scrapy.Request需要完整的URL,而response.follow可以接受相对URL,自动补全为绝对URL。
  • 便利性response.follow允许直接传递选择器或链接提取器的结果,而scrapy.Request则需要先提取URL。
  • 继承属性response.follow继承了当前响应的某些属性,如编码、cookies等,而用scrapy.Request时需要手动指定。

总结

  • 当你有一个完整的URL或需要更多控制请求(比如改变请求方法或添加特定的头部信息)时,使用scrapy.Request
  • 当你要处理相对URL或者希望从当前响应中继承属性时,使用response.follow更方便简洁。

选择使用哪个主要取决于具体场景和对便利性与灵活性的需求。

这篇关于爬虫工作量由小到大的思维转变---<第四十八章 Scrapy 的请求和follow问题>的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/745057

相关文章

好题——hdu2522(小数问题:求1/n的第一个循环节)

好喜欢这题,第一次做小数问题,一开始真心没思路,然后参考了网上的一些资料。 知识点***********************************无限不循环小数即无理数,不能写作两整数之比*****************************(一开始没想到,小学没学好) 此题1/n肯定是一个有限循环小数,了解这些后就能做此题了。 按照除法的机制,用一个函数表示出来就可以了,代码如下

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

购买磨轮平衡机时应该注意什么问题和技巧

在购买磨轮平衡机时,您应该注意以下几个关键点: 平衡精度 平衡精度是衡量平衡机性能的核心指标,直接影响到不平衡量的检测与校准的准确性,从而决定磨轮的振动和噪声水平。高精度的平衡机能显著减少振动和噪声,提高磨削加工的精度。 转速范围 宽广的转速范围意味着平衡机能够处理更多种类的磨轮,适应不同的工作条件和规格要求。 振动监测能力 振动监测能力是评估平衡机性能的重要因素。通过传感器实时监

缓存雪崩问题

缓存雪崩是缓存中大量key失效后当高并发到来时导致大量请求到数据库,瞬间耗尽数据库资源,导致数据库无法使用。 解决方案: 1、使用锁进行控制 2、对同一类型信息的key设置不同的过期时间 3、缓存预热 1. 什么是缓存雪崩 缓存雪崩是指在短时间内,大量缓存数据同时失效,导致所有请求直接涌向数据库,瞬间增加数据库的负载压力,可能导致数据库性能下降甚至崩溃。这种情况往往发生在缓存中大量 k

6.1.数据结构-c/c++堆详解下篇(堆排序,TopK问题)

上篇:6.1.数据结构-c/c++模拟实现堆上篇(向下,上调整算法,建堆,增删数据)-CSDN博客 本章重点 1.使用堆来完成堆排序 2.使用堆解决TopK问题 目录 一.堆排序 1.1 思路 1.2 代码 1.3 简单测试 二.TopK问题 2.1 思路(求最小): 2.2 C语言代码(手写堆) 2.3 C++代码(使用优先级队列 priority_queue)

【VUE】跨域问题的概念,以及解决方法。

目录 1.跨域概念 2.解决方法 2.1 配置网络请求代理 2.2 使用@CrossOrigin 注解 2.3 通过配置文件实现跨域 2.4 添加 CorsWebFilter 来解决跨域问题 1.跨域概念 跨域问题是由于浏览器实施了同源策略,该策略要求请求的域名、协议和端口必须与提供资源的服务相同。如果不相同,则需要服务器显式地允许这种跨域请求。一般在springbo

题目1254:N皇后问题

题目1254:N皇后问题 时间限制:1 秒 内存限制:128 兆 特殊判题:否 题目描述: N皇后问题,即在N*N的方格棋盘内放置了N个皇后,使得它们不相互攻击(即任意2个皇后不允许处在同一排,同一列,也不允许处在同一斜线上。因为皇后可以直走,横走和斜走如下图)。 你的任务是,对于给定的N,求出有多少种合法的放置方法。输出N皇后问题所有不同的摆放情况个数。 输入

vscode中文乱码问题,注释,终端,调试乱码一劳永逸版

忘记咋回事突然出现了乱码问题,很多方法都试了,注释乱码解决了,终端又乱码,调试窗口也乱码,最后经过本人不懈努力,终于全部解决了,现在分享给大家我的方法。 乱码的原因是各个地方用的编码格式不统一,所以把他们设成统一的utf8. 1.电脑的编码格式 开始-设置-时间和语言-语言和区域 管理语言设置-更改系统区域设置-勾选Bata版:使用utf8-确定-然后按指示重启 2.vscode

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

Android Environment 获取的路径问题

1. 以获取 /System 路径为例 /*** Return root of the "system" partition holding the core Android OS.* Always present and mounted read-only.*/public static @NonNull File getRootDirectory() {return DIR_ANDR