python爬取网络图片_python学习之路(七):牛刀小试,爬取网络图片下载到电脑...

本文主要是介绍python爬取网络图片_python学习之路(七):牛刀小试,爬取网络图片下载到电脑...,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

自学python今天刚好一星期,今天准备来写第一个正式的脚本代码,以前知道python,是从网络爬虫才开始知道python的。最开始对python的印象就是网络爬虫,所以今天的第一个python就写一个简单的爬虫脚本。

在网上找了一个壁纸网页(http://www.win4000.com/zt/fengjing_1.html),想把里面的壁纸下载保存到电脑,但是一张一张的下载太费力气了,所以就写一个python爬取里面的图片地址,然后保存在电脑上。

59350001fecdbebe8c54

写这个脚本用到前面几篇文章里讲到的一些知识点有:

1、 函数的创建与调用

2、 内置模块的导入

3、 For循环

4、 字符串编码(这个前面几篇里没讲过)

思路:

在这个脚本中用到python内置的模块有urllib模块,和re模块。Urllib模块是python内置的一个HTTP请求模块。Re模块是python内置的一个正则表达式模块。我们用urllib请求到网页的源代码,然后用正则表达式匹配出图片的下载地址。然后用for循环一张一张的把图片下载到电脑。

实现:

1、新建一个py文件,导入urllib和re模块。

593300041cb439777cc7

Urllib里面包括很多子模块。包括以下模块

urllib.request 请求模块

urllib.error 异常处理模块

urllib.parse url解析模块

urllib.robotparser robots.txt解析模块

在这个脚本中只用到请求模块,所以就只导入urllib.request就好了。

2、写一个名为getHtml的函数,然后用urllib.request请求到网页源代码

59350001ffda079baf92

给这个函数一个URL参数,然后用urllib.request请求到网页源代码,上面的变量html就是网页的源代码。

Html.decode(‘utf-8’)是网页的编码,如果编码不对,请求到的网页源码很可能是乱码的。我们可以在网页中用鼠标右键,然后查看网页源代码。

5930000494a762368bf2

在源代码的头部会有这个网页的编码,我门根据这个编码写到代码里。

593100046609c72c1b26

3、写一个名为getImg的函数,然后用re模块从上面一步中得到的网页源代码筛选出图片的url

5931000466352f4c0b8f

在网页中鼠标右键查看源代码,可以看到这个网页的图片真实地址是放在img标签的data-original属性里面。

593000049554d8d9b157

所以我们的正则表达式就写成这样

reg = r'data-original = "(.+?\.jpg)"'

注意data-original后面的等于号两边都有空格,所以在正则表达式里也要打空格。

函数返回的imglist就是图片的url列表。

正则表达式也不是三言两语能说清的,想了解的可以阅读百度百科正则表达式:

https://baike.baidu.com/item/正则表达式/1700215

百度百科里面有很详细的介绍。

5、写一个名为downImg的函数

59340002640992b607ea

用for循环把上一步得到的imglist循环下载到电脑。调用urllib模块中的urllib.request.urlretrieve函数,把图片保存在电脑里。我这里是保存在D盘的images目录下

6、 调用前面的写3个函数。

首先调用getHtml传入网页连接,得到源代码html

5934000264a47476c254

然后调用getImg传入源代码,得到图片列表imglist

最后调用downImg传入图片列表开始下载

完整代码如下:

59300004970e5761c328

运行结果:

5935000202ad7d166534

电脑存D盘的images目录:

59330004206e43396d60

再加个循环,我们可以把前几页所有的图片都下载下来。把网页翻到第二页。查看第二页的连接。

可以发现一个规律,网站地址的.thml前面就是下划线+页数。可以根据这个规律来下载指定页数内的所有图片。只需在调用上面的三个函数的时候,加个循环拼接网页的地址,循环调用即可。

5930000497e5db27c3cd

给downImg函数加个页数pageNum的参数。然后保存图片命名以页数开头命名。加个页数开头以防止后面一页把前面一页下载的图片给覆盖了。

运行代码后,前五页145张图片都已经下载到电脑里了。

5935000203b1ce02291a

当然上面爬取数据的方式是最简单的,数据量多的话效率不是很理想,现在有很多优秀的第三方模块都可以代替内置的模块,有时间的话我找一个好用的第三方爬虫模块来说一下。

这篇关于python爬取网络图片_python学习之路(七):牛刀小试,爬取网络图片下载到电脑...的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/418706

相关文章

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v

Python使用python-can实现合并BLF文件

《Python使用python-can实现合并BLF文件》python-can库是Python生态中专注于CAN总线通信与数据处理的强大工具,本文将使用python-can为BLF文件合并提供高效灵活... 目录一、python-can 库:CAN 数据处理的利器二、BLF 文件合并核心代码解析1. 基础合

Python使用OpenCV实现获取视频时长的小工具

《Python使用OpenCV实现获取视频时长的小工具》在处理视频数据时,获取视频的时长是一项常见且基础的需求,本文将详细介绍如何使用Python和OpenCV获取视频时长,并对每一行代码进行深入解析... 目录一、代码实现二、代码解析1. 导入 OpenCV 库2. 定义获取视频时长的函数3. 打开视频文

Python中你不知道的gzip高级用法分享

《Python中你不知道的gzip高级用法分享》在当今大数据时代,数据存储和传输成本已成为每个开发者必须考虑的问题,Python内置的gzip模块提供了一种简单高效的解决方案,下面小编就来和大家详细讲... 目录前言:为什么数据压缩如此重要1. gzip 模块基础介绍2. 基本压缩与解压缩操作2.1 压缩文

Python设置Cookie永不超时的详细指南

《Python设置Cookie永不超时的详细指南》Cookie是一种存储在用户浏览器中的小型数据片段,用于记录用户的登录状态、偏好设置等信息,下面小编就来和大家详细讲讲Python如何设置Cookie... 目录一、Cookie的作用与重要性二、Cookie过期的原因三、实现Cookie永不超时的方法(一)

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

Python函数作用域示例详解

《Python函数作用域示例详解》本文介绍了Python中的LEGB作用域规则,详细解析了变量查找的四个层级,通过具体代码示例,展示了各层级的变量访问规则和特性,对python函数作用域相关知识感兴趣... 目录一、LEGB 规则二、作用域实例2.1 局部作用域(Local)2.2 闭包作用域(Enclos

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

Python实现对阿里云OSS对象存储的操作详解

《Python实现对阿里云OSS对象存储的操作详解》这篇文章主要为大家详细介绍了Python实现对阿里云OSS对象存储的操作相关知识,包括连接,上传,下载,列举等功能,感兴趣的小伙伴可以了解下... 目录一、直接使用代码二、详细使用1. 环境准备2. 初始化配置3. bucket配置创建4. 文件上传到os

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互