爬虫工作量由小到大的思维转变---<第七十三章 > Scrapy爬虫详解一下HTTPERROE的问题

本文主要是介绍爬虫工作量由小到大的思维转变---<第七十三章 > Scrapy爬虫详解一下HTTPERROE的问题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:

        在我们的日常工作中,有时会忽略一些工具或组件的重要性,直到它们引起一连串的问题,我们才意识到它们的价值。正如在Scrapy框架中的HttpErrorMiddleware(HTTP错误中间件)一样,在开始时,我并没有太重视它。但在实际工作中由于它引起的问题连贯性,让我深刻认识到了对其进行深入理解的必要性。对此,有必要在这个章节对HttpErrorMiddleware进行一番详尽的分析。

        问题也不会太多,主要讲的就是几个点;关于httperror在前文有过一个简单版本的论述

爬虫工作量由小到大的思维转变---<第五十三章 Scrapy 降维挖掘---中间件系列(2)> (HttpErrorMiddleware、OffsiteMiddleware和RefererMiddl)-CSDN博客

可以先看这篇文章~ 

正文:

        首先,通过源码剖析,我们可以了解到HttpErrorMiddleware的基本作用:它负责处理Spider的HTTP错误,根据配置来决定是否忽略非200响应。简单来说,当响应状态码在200到300之间,Scrapy会认为这是一个成功的响应,并继续其它处理。然而,如果响应状态码不在这个范围内,中间件将决定基于你的设置是否将其忽略:也就是说,如果你通过设置handle_httpstatus_all或
handle_httpstatus_list来明确指出希望接收非200响应,Scrapy会相应地处理这些响应而不是简单地抛出异常。

1.源码刨析:

        a.对应路径:

        b.对应源码:

"""
HttpError Spider Middleware该中间件处理Spider的HTTP错误。它根据配置决定是否忽略非200响应。See documentation in docs/topics/spider-middleware.rst
"""import loggingfrom scrapy.exceptions import IgnoreRequestlogger = logging.getLogger(__name__)# HttpError类继承自IgnoreRequest,用于表示被过滤的非200响应。
class HttpError(IgnoreRequest):"""表示一个非200响应被过滤的异常类。Attributes:response: 发生错误的响应对象。"""def __init__(self, response, *args, **kwargs):self.response = responsesuper().__init__(*args, **kwargs)# 处理HTTP错误的中间件类。
class HttpErrorMiddleware:"""处理Spider输入时的HTTP错误。Attributes:handle_httpstatus_all: 布尔值,配置项,表示是否允许所有非200响应。handle_httpstatus_list: 列表,配置项,包含允许的非200响应状态码。"""@classmethoddef from_crawler(cls, crawler):"""从爬虫实例创建中间件对象。Args:crawler: Crawler实例。Returns:HttpErrorMiddleware实例。"""return cls(crawler.settings)def __init__(self, settings):"""初始化中间件。Args:settings: Scrapy设置对象。"""self.handle_httpstatus_all = settings.getbool("HTTPERROR_ALLOW_ALL")self.handle_httpstatus_list = settings.getlist("HTTPERROR_ALLOWED_CODES")def process_spider_input(self, response, spider):"""处理Spider输入的响应。Args:response: 响应对象。spider: 当前处理的Spider。Returns:如果响应应该被忽略,则返回None;否则将响应传递给下一个中间件。"""# 如果响应状态码是200到300之间,则认为是成功响应,直接返回。if 200 <= response.status < 300:returnmeta = response.meta# 如果设置为允许所有非200响应,则直接返回。if meta.get("handle_httpstatus_all", False):return# 如果响应元数据中有指定允许的状态码列表,则只处理列表中的状态码。if "handle_httpstatus_list" in meta:allowed_statuses = meta["handle_httpstatus_list"]elif self.handle_httpstatus_all:returnelse:# 默认情况下,使用Spider或中间件的允许状态码列表。allowed_statuses = getattr(spider, "handle_httpstatus_list", self.handle_httpstatus_list)# 如果响应状态码在允许的列表中,则认为是有效响应,返回None。if response.status in allowed_statuses:return# 如果响应状态码未在允许的范围内,则抛出HttpError异常。raise HttpError(response, "Ignoring non-200 response")def process_spider_exception(self, response, exception, spider):"""处理Spider异常。Args:response: 响应对象。exception: 异常对象。spider: 当前处理的Spider。Returns:如果异常为HttpError,则记录日志并忽略该响应;否则将异常传递给下一个中间件。"""# 如果异常为HttpError,则认为是需要忽略的响应。if isinstance(exception, HttpError):spider.crawler.stats.inc_value("httperror/response_ignored_count")spider.crawler.stats.inc_value(f"httperror/response_ignored_status_count/{response.status}")logger.info("Ignoring response %(response)r: HTTP status code is not handled or not allowed",{"response": response},extra={"spider": spider},)return []

2.对代码进行总结:

        a.运行机制

  1.                 当status在【200,300】内的时候,直接返回(无异常);
  2.                 当status开始出现问题的时候,看你是否设置允许状态码;

--- 在spider里面,发送请求的时候会在mata里面带着handle_httpstatus_list或者handle_httpstatus_all  ;-->如果是all,表示所有的状态码都不会引发httpError的问题;而handle_httpstatus_list则是需要在集合里面设置对应允许的一些状态码;

--- 也可以直接在setting里面直接进行handle_httpstatus_list 的设置;(如图)

b.报错机制

在允许范围内的status通通不会报错,就没有

process_spider_exception

什么事了;   只有不在范围内的错误,会进行一个统计;

        这种设计非常灵活,允许开发者根据实际需求决定哪些HTTP状态码是可接受的,而哪些应当被视为错误。比如,在某些应用场景下,接收到404响应可能是正常的一部分,不应该中断整个爬取流程。因此,通过合理配置HttpErrorMiddleware,就可以实现这样的需求。

3.总结:

        HttpErrorMiddleware是Scrapy框架中一个非常重要的组件,尤其是在处理复杂网页爬取时。它不仅能帮助我们更灵活地处理HTTP错误,还能通过设置,让我们的爬虫更加健壮。了解它的工作原理和如何配置,对于开发高效的爬虫程序来说是非常关键的。通过对源码的解析和应用实践,我们能更好地利用这个中间件,优化我们的网络爬虫,不仅提升数据采集效率,还能保证数据的质量和完整性。

        总的来说,HttpErrorMiddleware加深了我们对Scrapy框架灵活性和强大功能的认识,是值得每个使用Scrapy框架的开发者深入了解和掌握的知识点。

这篇关于爬虫工作量由小到大的思维转变---<第七十三章 > Scrapy爬虫详解一下HTTPERROE的问题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/985300

相关文章

Python基础文件操作方法超详细讲解(详解版)

《Python基础文件操作方法超详细讲解(详解版)》文件就是操作系统为用户或应用程序提供的一个读写硬盘的虚拟单位,文件的核心操作就是读和写,:本文主要介绍Python基础文件操作方法超详细讲解的相... 目录一、文件操作1. 文件打开与关闭1.1 打开文件1.2 关闭文件2. 访问模式及说明二、文件读写1.

详解C++中类的大小决定因数

《详解C++中类的大小决定因数》类的大小受多个因素影响,主要包括成员变量、对齐方式、继承关系、虚函数表等,下面就来介绍一下,具有一定的参考价值,感兴趣的可以了解一下... 目录1. 非静态数据成员示例:2. 数据对齐(Padding)示例:3. 虚函数(vtable 指针)示例:4. 继承普通继承虚继承5.

前端高级CSS用法示例详解

《前端高级CSS用法示例详解》在前端开发中,CSS(层叠样式表)不仅是用来控制网页的外观和布局,更是实现复杂交互和动态效果的关键技术之一,随着前端技术的不断发展,CSS的用法也日益丰富和高级,本文将深... 前端高级css用法在前端开发中,CSS(层叠样式表)不仅是用来控制网页的外观和布局,更是实现复杂交

Linux换行符的使用方法详解

《Linux换行符的使用方法详解》本文介绍了Linux中常用的换行符LF及其在文件中的表示,展示了如何使用sed命令替换换行符,并列举了与换行符处理相关的Linux命令,通过代码讲解的非常详细,需要的... 目录简介检测文件中的换行符使用 cat -A 查看换行符使用 od -c 检查字符换行符格式转换将

springboot循环依赖问题案例代码及解决办法

《springboot循环依赖问题案例代码及解决办法》在SpringBoot中,如果两个或多个Bean之间存在循环依赖(即BeanA依赖BeanB,而BeanB又依赖BeanA),会导致Spring的... 目录1. 什么是循环依赖?2. 循环依赖的场景案例3. 解决循环依赖的常见方法方法 1:使用 @La

详解C#如何提取PDF文档中的图片

《详解C#如何提取PDF文档中的图片》提取图片可以将这些图像资源进行单独保存,方便后续在不同的项目中使用,下面我们就来看看如何使用C#通过代码从PDF文档中提取图片吧... 当 PDF 文件中包含有价值的图片,如艺术画作、设计素材、报告图表等,提取图片可以将这些图像资源进行单独保存,方便后续在不同的项目中使

Android中Dialog的使用详解

《Android中Dialog的使用详解》Dialog(对话框)是Android中常用的UI组件,用于临时显示重要信息或获取用户输入,本文给大家介绍Android中Dialog的使用,感兴趣的朋友一起... 目录android中Dialog的使用详解1. 基本Dialog类型1.1 AlertDialog(

C#数据结构之字符串(string)详解

《C#数据结构之字符串(string)详解》:本文主要介绍C#数据结构之字符串(string),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录转义字符序列字符串的创建字符串的声明null字符串与空字符串重复单字符字符串的构造字符串的属性和常用方法属性常用方法总结摘

Java中StopWatch的使用示例详解

《Java中StopWatch的使用示例详解》stopWatch是org.springframework.util包下的一个工具类,使用它可直观的输出代码执行耗时,以及执行时间百分比,这篇文章主要介绍... 目录stopWatch 是org.springframework.util 包下的一个工具类,使用它

Java进行文件格式校验的方案详解

《Java进行文件格式校验的方案详解》这篇文章主要为大家详细介绍了Java中进行文件格式校验的相关方案,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、背景异常现象原因排查用户的无心之过二、解决方案Magandroidic Number判断主流检测库对比Tika的使用区分zip