用Python爬虫帮助出版社的实习生批量爬取古籍图片

2024-01-13 00:10

本文主要是介绍用Python爬虫帮助出版社的实习生批量爬取古籍图片,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

某天中午,一个陌生微信加了老夫的微信,说有个需求需要请教。

image

image

image

image

image

收到链接后,马上开撸代码。

1、目标网站分析

image

主页(图)

主页是一个 table 列表,我们实际需要的数据是 全文影像 的页面里的数据。

image

全文影像(图)

通过点击页面相关链接,老夫发下如下规律:

1、全文影像 中顶部的分页数字指的是书籍有多少册,如下图有17册。

image

每册链接是:http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/index.html

这个链接中 006659 指的是书号,001指的是第一册,以此类推

第二页链接:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-002/index.html

第三页链接:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-003/index.html

2、全文影像 中底部的分页数据代表每册有多少页,如下图有25页

image

第一页的链接如下:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/006659-001/assets/basic-html/page-1.html

以此类推 第二页链接如下:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/006659-001/assets/basic-html/page-2.html

根据上面的规律,我们需要先爬取每本书有多少册,然后再循环爬取每册有多少个图

2、搭建Python环境

1、安装Python3环境,请自行百度。

2、安装virtualenv环境与系统Python环境隔离。

image

3、安装Scrapy包

pip install -i https://pypi.doubanio.com/simple/ scrapy

image

4、创建 scrapy 项目

scrapy startproject bookspider

5、项目结构如下:

image

3、编写爬虫代码

1、首先新建 url_spider 爬虫,爬取首页获取每本书的链接,并保存到urls.txt中

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import scrapyclass urlSpider(scrapy.Spider):name = "urlSpider"def start_requests(self):urls = ['http://db.sido.keio.ac.jp/kanseki/T_bib_line_2.php']for url in urls:yield scrapy.Request(url=url, callback=self.parse)def parse(self, response):basepath = 'http://db.sido.keio.ac.jp/kanseki/'hrefs = response.xpath("//a[@name='alrp']").xpath("@href").getall()html =''for href in hrefs:path = basepath+href+","html += pathwith open("urls.txt",'w',encoding='utf-8') as wb:wb.write(html)wb.close()

2、新建 book_spider 爬虫,爬取书籍的书册并且下载每册书的图片,为了测试爬虫老夫只选取了一本书来爬取。

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import scrapy
import os
import os.path as opath
from urllib.request import  urlretrieve
class bookSpider(scrapy.Spider):name = "book"urlStrs = ''def start_requests(self):with open("urls.txt",'r',encoding='utf-8') as f:urlStrs = f.read()f.close()urls = urlStrs.split(',')yield scrapy.Request(url=urls[0],callback=self.parse)def parse(self, response):books = response.xpath("//div[@id='basic']/ul/li/p/text()").getall()iframeUrl = response.xpath("//iframe/@src").get()self.logger.info('---------> iframe url is %s',iframeUrl)info = self.getUrlInfo(iframeUrl)self.logger.info("%s 有 %s 册",info[1],books)path='/Users/lxl/Documents/pythonProject/myspider/book/'+info[1]if opath.exists(path) is False:os.makedirs(path)for bookid in books:bookurl = info[0]+'/'+info[1]+'-'+self.getbookid(bookid)+'/'+info[1]+'-'+self.getbookid(bookid)+'/assets/basic-html/page-1.html'if opath.exists(path+"/"+self.getbookid(bookid)) is False:os.mkdir(path+"/"+self.getbookid(bookid))yield scrapy.Request(url=bookurl,callback=self.parsebook,meta={'path':path+"/"+self.getbookid(bookid)})'''解析每册书的信息,并且开始保存图片'''def parsebook(self,response):numstr = response.xpath("//span[@class='pager']/text()").get()pages = numstr.split("/")[1].strip() # 总页数page = 1while page <= int(pages):pageurl = self.getPageBasePath(response.url)+'/'+'page-'+str(page)+'.html'self.logger.info("处理页面:%s",pageurl)yield  scrapy.Request(url=pageurl,callback =self.pageImg,meta={'path':response.meta['path']})page += 1def pageImg(self,response):url = response.xpath("//div[@id='pageContainer']/img/@src").get()imgurl = response.urljoin(response.xpath("//div[@id='pageContainer']/img/@src").get())self.download(url=imgurl,path=response.meta['path'])'''解析 iframe 中的 http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/index.html返回 ('http://db.sido.keio.ac.jp/kanseki/flipping','006659')006659-001 006659:代表书号001: 代表册号'''def getUrlInfo(self,url):i = url.rfind("/", 0)urlSub = url[0:i]ii = urlSub.rindex("/", 0)_str = urlSub[ii + 1:]cc = _str.split('-')baseUrl = urlSub[0:ii]arr = (baseUrl, cc[0])return arrdef getbookid(self,bookid):if int(bookid) >= 10 and int(bookid) < 100:return '0'+bookidelse:return '00'+bookiddef getPageBasePath(self,url):i = url.rindex("/", 0)return url[0:i]def download(self,url,path):i = url.rindex("/",0)filename = url[i+1:]if opath.exists(path+'/'+filename) is False:urlretrieve(url, path + '/' + filename)self.logger.info("下载图片链接:%s",url)

4、运行爬虫

最后运行效果如下:

image

爬取的图片如下:

image

老夫撸代码

至此整个爬虫程序就结束了。

5、项目源码

image
关注公众号老夫撸代码,回复 bookspider 获取源码地址
欢迎各位童鞋提供需求,老夫来帮你实现!

这篇关于用Python爬虫帮助出版社的实习生批量爬取古籍图片的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/599633

相关文章

Python通用唯一标识符模块uuid使用案例详解

《Python通用唯一标识符模块uuid使用案例详解》Pythonuuid模块用于生成128位全局唯一标识符,支持UUID1-5版本,适用于分布式系统、数据库主键等场景,需注意隐私、碰撞概率及存储优... 目录简介核心功能1. UUID版本2. UUID属性3. 命名空间使用场景1. 生成唯一标识符2. 数

Python办公自动化实战之打造智能邮件发送工具

《Python办公自动化实战之打造智能邮件发送工具》在数字化办公场景中,邮件自动化是提升工作效率的关键技能,本文将演示如何使用Python的smtplib和email库构建一个支持图文混排,多附件,多... 目录前言一、基础配置:搭建邮件发送框架1.1 邮箱服务准备1.2 核心库导入1.3 基础发送函数二、

Python包管理工具pip的升级指南

《Python包管理工具pip的升级指南》本文全面探讨Python包管理工具pip的升级策略,从基础升级方法到高级技巧,涵盖不同操作系统环境下的最佳实践,我们将深入分析pip的工作原理,介绍多种升级方... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

基于Python实现一个图片拆分工具

《基于Python实现一个图片拆分工具》这篇文章主要为大家详细介绍了如何基于Python实现一个图片拆分工具,可以根据需要的行数和列数进行拆分,感兴趣的小伙伴可以跟随小编一起学习一下... 简单介绍先自己选择输入的图片,默认是输出到项目文件夹中,可以自己选择其他的文件夹,选择需要拆分的行数和列数,可以通过

Python中反转字符串的常见方法小结

《Python中反转字符串的常见方法小结》在Python中,字符串对象没有内置的反转方法,然而,在实际开发中,我们经常会遇到需要反转字符串的场景,比如处理回文字符串、文本加密等,因此,掌握如何在Pyt... 目录python中反转字符串的方法技术背景实现步骤1. 使用切片2. 使用 reversed() 函

Python中将嵌套列表扁平化的多种实现方法

《Python中将嵌套列表扁平化的多种实现方法》在Python编程中,我们常常会遇到需要将嵌套列表(即列表中包含列表)转换为一个一维的扁平列表的需求,本文将给大家介绍了多种实现这一目标的方法,需要的朋... 目录python中将嵌套列表扁平化的方法技术背景实现步骤1. 使用嵌套列表推导式2. 使用itert

使用Docker构建Python Flask程序的详细教程

《使用Docker构建PythonFlask程序的详细教程》在当今的软件开发领域,容器化技术正变得越来越流行,而Docker无疑是其中的佼佼者,本文我们就来聊聊如何使用Docker构建一个简单的Py... 目录引言一、准备工作二、创建 Flask 应用程序三、创建 dockerfile四、构建 Docker

Python使用vllm处理多模态数据的预处理技巧

《Python使用vllm处理多模态数据的预处理技巧》本文深入探讨了在Python环境下使用vLLM处理多模态数据的预处理技巧,我们将从基础概念出发,详细讲解文本、图像、音频等多模态数据的预处理方法,... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Python使用pip工具实现包自动更新的多种方法

《Python使用pip工具实现包自动更新的多种方法》本文深入探讨了使用Python的pip工具实现包自动更新的各种方法和技术,我们将从基础概念开始,逐步介绍手动更新方法、自动化脚本编写、结合CI/C... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v