python爬虫我是斗图之王

2023-11-10 06:10
文章标签 python 爬虫 之王 斗图

本文主要是介绍python爬虫我是斗图之王,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

python爬虫我是斗图之王


本文会以斗图啦网站为例,爬取所有表情包。

阅读之前需要对线程池、连接池、正则表达式稍作了解。

分析网站

页面url分析

打开斗图啦网站,简单翻阅之后发现最新表情每页包含的表情是最多的。

其url是: /photo/list/?page=2 其中page参数为页码,目前有1578

页面图片元素分析

使用chrome的开发者工具分析一个图片的元素

enter image description here

<img src="https://ws1.sinaimg.cn/bmiddle/9150e4e5gy1frp2ulvf8uj20dw0hdmy2.jpg" style="width: 100%; height: 184.471px; display: block;" data-original="https://ws1.sinaimg.cn/bmiddle/9150e4e5gy1frp2ulvf8uj20dw0hdmy2.jpg" alt="简直不知羞耻" class="img-responsive lazy image_dta" data-backup="//img.doutula.com/production/uploads/image//2018/05/27/20180527387499_dYXqmw.jpg!dta">

可以看到img元素中包含我们想要信息:图片地址图片描述

注意此时实际上我看到是浏览器渲染之后的页面,所以元素可能会是动态生成的。

如果我们要提高效率则应该使用web1.0,因为web2.0需要会更慢也更复杂。

要查看未渲染之前的页面,右键查看源代码搜索图片链接

enter image description here

<img src="//www.doutula.com/build/img/loader.gif"
style="width: 100%; height: 100%;"
data-original="https://ws1.sinaimg.cn/bmiddle/9150e4e5gy1frp2ulvf8uj20dw0hdmy2.jpg"
alt="简直不知羞耻" class="img-responsive lazy image_dta"
data-backup="//img.doutula.com/production/uploads/image//2018/05/27/20180527387499_dYXqmw.jpg!dta">

img标签的src属性并非真正的图片地址,推测网站使用了图片懒加载技术,感兴趣可以自己搜索。

虽然src不是图片地址,但发现其实data-original就是真正的图片地址。

图床分析

根据之前的分析,其实该网站使用新浪的图床ws1.sinaimg.cn,多查看几个图片地址发现不一定是ws1子域名

可能是任何ws开头,后面跟数字。为什么会这样?

根据HTTP/1.1协议规定,浏览器客户端在同一时间,针对同一域名下的请求有一定数量限制。超过限制数目的请求会被阻塞

Clients that use persistent connections SHOULD limit the number of simultaneous connections that they maintain to a given server. A single-user client SHOULD NOT maintain more than 2 connections with any server or proxy. A proxy SHOULD use up to 2*N connections to another server or proxy, where N is the number of simultaneously active users. These guidelines are intended to improve HTTP response times and avoid congestion.

来源: RFC-2616-8.1.4 Practical Considerations

而不同的浏览器有不同的限制

enter image description here

所以新浪图床为了优化浏览器访问图片的速度,图片地址使用了不同的子域名来绕过这种限制

测试发现,固定子域名ws1中的数字,图片也依旧可以访问,https也使用http访问

流程梳理

  1. 通过改变page参数爬取所有列表页面/photo/list/?page=1

  2. 通过正则获取img标签的图片地址图片描述

  3. 进一步下载图片,并保存为文件

优化说明

  • 为更快爬取页面和图片使用线程池并发请求

  • 连接池要保证域名不能改变,所以图片链接中ws*均替换为ws1

  • 为了得到更快的下载图片https退回到http

代码

需要先安装requests库pip install requests

# -*- coding: utf-8 -*-
import re
import os
import requests
import multiprocessing
from multiprocessing.pool import ThreadPool# 设置图片保存文件夹
BASE_DIR = os.path.join(os.path.dirname(__file__), 'pic')
# 创建三个队列,分别用于图片任务、页面任务、日志记录
picqueue = multiprocessing.Queue()
pagequeue = multiprocessing.Queue()
logqueue = multiprocessing.Queue()
# 创建两个线程池,分别用于图片任务,页面任务
picpool = ThreadPool(30)
pagepool = ThreadPool(3)error = []def getimglist(body):imglist = re.findall(r'data-original="https://ws\d([^"]+)"\s+alt="([^"]+)"', body)for url, name in imglist:if name:#根据图片描述拼接最终的图片文件名name = name[:180] + url[-4:]#https->http ws*->ws1url = "http://ws1" + urllogqueue.put(url)picqueue.put((name, url))def savefile():#当前线程位置唯一的一个连接http = requests.Session()while True:name, url = picqueue.get()#判断是否已经下载if not os.path.isfile(os.path.join(BASE_DIR, name)):req = http.get(url)try:open(os.path.join(BASE_DIR, name), 'wb').write(req.content)except:error.append([name, url])def getpage():#当前线程位置唯一的一个连接http = requests.Session()while True:pageid = pagequeue.get()req = http.get("https://www.doutula.com/photo/list/?page={}".format(pageid))getimglist(req.text)def main():if not os.path.isdir(BASE_DIR):os.mkdir(BASE_DIR)# 将页码放入队列中for x in range(1, 1579):pagequeue.put(x)# 启动页面任务池for x in range(3):pagepool.apply_async(getpage)# 启动图片任务池for x in range(30):picpool.apply_async(savefile)# 打印普片任务剩余个数,页面剩余个数,以及抓取到的url连接while True:print(picqueue.qsize(), pagequeue.qsize(), logqueue.get())if __name__ == '__main__':main()

结果

可以看到100M带宽基本吃满

enter image description here

环境差异、网络波动可能会使一些图片下载失败。多执行几次即可。

最终大约可以下载到六万多张表情表。

enter image description here

enter image description here

斗图

他有的图咱都有

enter image description here

而且可以反怼回去

enter image description here

想要我最后这个用大易语言写的斗图工具,赶紧来bugscan社区下载源码吧。

转载于:https://www.cnblogs.com/howmp/p/9176411.html

这篇关于python爬虫我是斗图之王的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/380832

相关文章

Python调用Orator ORM进行数据库操作

《Python调用OratorORM进行数据库操作》OratorORM是一个功能丰富且灵活的PythonORM库,旨在简化数据库操作,它支持多种数据库并提供了简洁且直观的API,下面我们就... 目录Orator ORM 主要特点安装使用示例总结Orator ORM 是一个功能丰富且灵活的 python O

Python使用国内镜像加速pip安装的方法讲解

《Python使用国内镜像加速pip安装的方法讲解》在Python开发中,pip是一个非常重要的工具,用于安装和管理Python的第三方库,然而,在国内使用pip安装依赖时,往往会因为网络问题而导致速... 目录一、pip 工具简介1. 什么是 pip?2. 什么是 -i 参数?二、国内镜像源的选择三、如何

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

如何通过Python实现一个消息队列

《如何通过Python实现一个消息队列》这篇文章主要为大家详细介绍了如何通过Python实现一个简单的消息队列,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录如何通过 python 实现消息队列如何把 http 请求放在队列中执行1. 使用 queue.Queue 和 reque

Python如何实现PDF隐私信息检测

《Python如何实现PDF隐私信息检测》随着越来越多的个人信息以电子形式存储和传输,确保这些信息的安全至关重要,本文将介绍如何使用Python检测PDF文件中的隐私信息,需要的可以参考下... 目录项目背景技术栈代码解析功能说明运行结php果在当今,数据隐私保护变得尤为重要。随着越来越多的个人信息以电子形

使用Python快速实现链接转word文档

《使用Python快速实现链接转word文档》这篇文章主要为大家详细介绍了如何使用Python快速实现链接转word文档功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 演示代码展示from newspaper import Articlefrom docx import

Python Jupyter Notebook导包报错问题及解决

《PythonJupyterNotebook导包报错问题及解决》在conda环境中安装包后,JupyterNotebook导入时出现ImportError,可能是由于包版本不对应或版本太高,解决方... 目录问题解决方法重新安装Jupyter NoteBook 更改Kernel总结问题在conda上安装了

Python如何计算两个不同类型列表的相似度

《Python如何计算两个不同类型列表的相似度》在编程中,经常需要比较两个列表的相似度,尤其是当这两个列表包含不同类型的元素时,下面小编就来讲讲如何使用Python计算两个不同类型列表的相似度吧... 目录摘要引言数字类型相似度欧几里得距离曼哈顿距离字符串类型相似度Levenshtein距离Jaccard相

Python安装时常见报错以及解决方案

《Python安装时常见报错以及解决方案》:本文主要介绍在安装Python、配置环境变量、使用pip以及运行Python脚本时常见的错误及其解决方案,文中介绍的非常详细,需要的朋友可以参考下... 目录一、安装 python 时常见报错及解决方案(一)安装包下载失败(二)权限不足二、配置环境变量时常见报错及

Python中顺序结构和循环结构示例代码

《Python中顺序结构和循环结构示例代码》:本文主要介绍Python中的条件语句和循环语句,条件语句用于根据条件执行不同的代码块,循环语句用于重复执行一段代码,文章还详细说明了range函数的使... 目录一、条件语句(1)条件语句的定义(2)条件语句的语法(a)单分支 if(b)双分支 if-else(