用Python爬虫帮助出版社的实习生批量爬取古籍图片

2024-01-13 00:10

本文主要是介绍用Python爬虫帮助出版社的实习生批量爬取古籍图片,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

某天中午,一个陌生微信加了老夫的微信,说有个需求需要请教。

image

image

image

image

image

收到链接后,马上开撸代码。

1、目标网站分析

image

主页(图)

主页是一个 table 列表,我们实际需要的数据是 全文影像 的页面里的数据。

image

全文影像(图)

通过点击页面相关链接,老夫发下如下规律:

1、全文影像 中顶部的分页数字指的是书籍有多少册,如下图有17册。

image

每册链接是:http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/index.html

这个链接中 006659 指的是书号,001指的是第一册,以此类推

第二页链接:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-002/index.html

第三页链接:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-003/index.html

2、全文影像 中底部的分页数据代表每册有多少页,如下图有25页

image

第一页的链接如下:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/006659-001/assets/basic-html/page-1.html

以此类推 第二页链接如下:

http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/006659-001/assets/basic-html/page-2.html

根据上面的规律,我们需要先爬取每本书有多少册,然后再循环爬取每册有多少个图

2、搭建Python环境

1、安装Python3环境,请自行百度。

2、安装virtualenv环境与系统Python环境隔离。

image

3、安装Scrapy包

pip install -i https://pypi.doubanio.com/simple/ scrapy

image

4、创建 scrapy 项目

scrapy startproject bookspider

5、项目结构如下:

image

3、编写爬虫代码

1、首先新建 url_spider 爬虫,爬取首页获取每本书的链接,并保存到urls.txt中

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import scrapyclass urlSpider(scrapy.Spider):name = "urlSpider"def start_requests(self):urls = ['http://db.sido.keio.ac.jp/kanseki/T_bib_line_2.php']for url in urls:yield scrapy.Request(url=url, callback=self.parse)def parse(self, response):basepath = 'http://db.sido.keio.ac.jp/kanseki/'hrefs = response.xpath("//a[@name='alrp']").xpath("@href").getall()html =''for href in hrefs:path = basepath+href+","html += pathwith open("urls.txt",'w',encoding='utf-8') as wb:wb.write(html)wb.close()

2、新建 book_spider 爬虫,爬取书籍的书册并且下载每册书的图片,为了测试爬虫老夫只选取了一本书来爬取。

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import scrapy
import os
import os.path as opath
from urllib.request import  urlretrieve
class bookSpider(scrapy.Spider):name = "book"urlStrs = ''def start_requests(self):with open("urls.txt",'r',encoding='utf-8') as f:urlStrs = f.read()f.close()urls = urlStrs.split(',')yield scrapy.Request(url=urls[0],callback=self.parse)def parse(self, response):books = response.xpath("//div[@id='basic']/ul/li/p/text()").getall()iframeUrl = response.xpath("//iframe/@src").get()self.logger.info('---------> iframe url is %s',iframeUrl)info = self.getUrlInfo(iframeUrl)self.logger.info("%s 有 %s 册",info[1],books)path='/Users/lxl/Documents/pythonProject/myspider/book/'+info[1]if opath.exists(path) is False:os.makedirs(path)for bookid in books:bookurl = info[0]+'/'+info[1]+'-'+self.getbookid(bookid)+'/'+info[1]+'-'+self.getbookid(bookid)+'/assets/basic-html/page-1.html'if opath.exists(path+"/"+self.getbookid(bookid)) is False:os.mkdir(path+"/"+self.getbookid(bookid))yield scrapy.Request(url=bookurl,callback=self.parsebook,meta={'path':path+"/"+self.getbookid(bookid)})'''解析每册书的信息,并且开始保存图片'''def parsebook(self,response):numstr = response.xpath("//span[@class='pager']/text()").get()pages = numstr.split("/")[1].strip() # 总页数page = 1while page <= int(pages):pageurl = self.getPageBasePath(response.url)+'/'+'page-'+str(page)+'.html'self.logger.info("处理页面:%s",pageurl)yield  scrapy.Request(url=pageurl,callback =self.pageImg,meta={'path':response.meta['path']})page += 1def pageImg(self,response):url = response.xpath("//div[@id='pageContainer']/img/@src").get()imgurl = response.urljoin(response.xpath("//div[@id='pageContainer']/img/@src").get())self.download(url=imgurl,path=response.meta['path'])'''解析 iframe 中的 http://db.sido.keio.ac.jp/kanseki/flipping/006659-001/index.html返回 ('http://db.sido.keio.ac.jp/kanseki/flipping','006659')006659-001 006659:代表书号001: 代表册号'''def getUrlInfo(self,url):i = url.rfind("/", 0)urlSub = url[0:i]ii = urlSub.rindex("/", 0)_str = urlSub[ii + 1:]cc = _str.split('-')baseUrl = urlSub[0:ii]arr = (baseUrl, cc[0])return arrdef getbookid(self,bookid):if int(bookid) >= 10 and int(bookid) < 100:return '0'+bookidelse:return '00'+bookiddef getPageBasePath(self,url):i = url.rindex("/", 0)return url[0:i]def download(self,url,path):i = url.rindex("/",0)filename = url[i+1:]if opath.exists(path+'/'+filename) is False:urlretrieve(url, path + '/' + filename)self.logger.info("下载图片链接:%s",url)

4、运行爬虫

最后运行效果如下:

image

爬取的图片如下:

image

老夫撸代码

至此整个爬虫程序就结束了。

5、项目源码

image
关注公众号老夫撸代码,回复 bookspider 获取源码地址
欢迎各位童鞋提供需求,老夫来帮你实现!

这篇关于用Python爬虫帮助出版社的实习生批量爬取古籍图片的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/599633

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

HTML提交表单给python

python 代码 from flask import Flask, request, render_template, redirect, url_forapp = Flask(__name__)@app.route('/')def form():# 渲染表单页面return render_template('./index.html')@app.route('/submit_form',

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

Android 10.0 mtk平板camera2横屏预览旋转90度横屏拍照图片旋转90度功能实现

1.前言 在10.0的系统rom定制化开发中,在进行一些平板等默认横屏的设备开发的过程中,需要在进入camera2的 时候,默认预览图像也是需要横屏显示的,在上一篇已经实现了横屏预览功能,然后发现横屏预览后,拍照保存的图片 依然是竖屏的,所以说同样需要将图片也保存为横屏图标了,所以就需要看下mtk的camera2的相关横屏保存图片功能, 如何实现实现横屏保存图片功能 如图所示: 2.mtk