python3.3.3 爬取图片链接

2023-12-16 10:38

本文主要是介绍python3.3.3 爬取图片链接,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

               前几天在网上看了些爬虫视屏,所以自己也亲手试了下,主要是环境搭建比较麻烦,但代码相当简单,接下来开始进行爬虫吧!

       第一步,先搭建好环境,我用的是python3.3.3和urllib3。urllib3包需要自己搭建。但安装包需要用到pip工具,这里是其他人写的一篇pip安装的博文,附上链接。
https://www.cnblogs.com/allan-king/p/5445879.html然后是装urllib3包,这个需要到官网下载,附上链接https://pypi.org/project/urllib3/#files,我选的是Wheel类型的。下载到./python3.3.3/Scripts/     命令行输入

             python -m pip install urllib3    

           安装成功后,就可以导入urllib3包了。第二步,找到一个目标网址,也就是要爬取内容的网页,我选择的是http://www.doutula.com/article/list/?page=1",我们想从这个网址上爬取图片链接。分析网页html内容后,发现图片链接旁边内容为

                 data-original="http://img.doutula.com/production/uploads/image//2018/06/21/20180621549184_XsjZBx.gif!dta" data-backup="http://img.doutula.com/production/uploads/image//2018/06/21/20180621549184_XsjZBx.gif!dta" alt="捏脸">

                怎样从html内容中提取有用信息呢,想到了正则表达式,以下附上所有源码

    

import urllib3 	#导入urllib3包
import re		#导入re包#获取网站某页数据
def getText(page_number):#实例化http = urllib3.PoolManager()#访问网站page = http.request('GET',"http://www.doutula.com/article/list/?page="+str(page_number))#处理数据为UTF-8类型字符html = page.data.decode('utf-8')#正则表达式,括号中的为有用数据reg = "data-original=(.*?) data-backup"reg += ".*?"reg += "alt=(.*?)>"#html内容匹配正则表达式page = re.compile(reg)artlist = re.findall(page,html)#循环输出结果列表for arts in artlist:print(arts)#获取第四页数据		
#getText(4)#获取第一页到第100页数据
for i in range(1,101):getText(i)




这篇关于python3.3.3 爬取图片链接的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/500169

相关文章

0基础学习爬虫系列:网页内容爬取

1.背景 今天我们来实现,监控网站最新数据爬虫。 在信息爆炸的年代,能够有一个爬虫帮你,将你感兴趣的最新消息推送给你,能够帮你节约非常多时间,同时确保不会miss重要信息。 爬虫应用场景: 应用场景主要功能数据来源示例使用目的搜索引擎优化 (SEO)分析关键词密度、外部链接质量等网站元数据、链接提升网站在搜索引擎中的排名市场研究收集竞品信息、价格比较电商网站、行业报告制定更有效的市场策略舆情

python网络爬虫(五)——爬取天气预报

1.注册高德天气key   点击高德天气,然后按照开发者文档完成key注册;作为爬虫练习项目之一。从高德地图json数据接口获取天气,可以获取某省的所有城市天气,高德地图的这个接口还能获取县城的天气。其天气查询API服务地址为https://restapi.amap.com/v3/weather/weatherInfo?parameters,若要获取某城市的天气推荐 2.安装MongoDB

【python】—— Python爬虫实战:爬取珠海市2011-2023年天气数据并保存为CSV文件

目录 目标 准备工作 爬取数据的开始时间和结束时间 爬取数据并解析 将数据转换为DataFrame并保存为CSV文件         本文将介绍如何使用Python编写一个简单的爬虫程序,以爬取珠海市2011年至2023年的天气数据,并将这些数据保存为CSV文件。我们将涉及到以下知识点: 使用requests库发送HTTP请求使用lxml库解析HTML文档使用dateti

scrapy 设置爬取深度 (七)

通过在settings.py中设置DEPTH_LIMIT的值可以限制爬取深度,这个深度是与start_urls中定义url的相对值。也就是相对url的深度。例如定义url为:http://www.domz.com/game/,DEPTH_LIMIT=1那么限制爬取的只能是此url下一级的网页。深度大于设置值的将被ignore。       如图:

scrapy自动多网页爬取CrawlSpider类(五)

一.目的。 自动多网页爬取,这里引出CrawlSpider类,使用更简单方式实现自动爬取。   二.热身。 1.CrawlSpider (1)概念与作用: 它是Spider的派生类,首先在说下Spider,它是所有爬虫的基类,对于它的设计原则是只爬取start_url列表中的网页,而从爬取的网页中获取link并继续爬取的工作CrawlSpider类更适合。 ࿰

Scrapy ——自动多网页爬取(抓取某人博客所有文章)(四)

首先创建project:   [python]  view plain  copy     转存失败重新上传取消<

python爬取网页接口数据,以yearning为例

模拟登陆获取token,传token到对应的接口获取数据,下载到csv里面  import getpassimport osimport requestsimport timeimport csvfrom datetime import datetimeclass Yearning:def __init__(self):self.session = requests.Session()

爬取需要的图片

爬取图片 import re,requests,time#导入所需要的库headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36 Edg/128.0.0.0","Cookie":"B

爬取知乎回答

登录网站 参考这篇文章 在 Network 中随意点击一个 Fetch 项(注意前面的小图标),在右边的 Headers 中找到 Cookie,这段代码就是知乎 Cookie。 import requests# 引入ssl,取消全局ssl认证:# 设置好urlurl = 'https://www.zhihu.com/'# 设置好headersheaders = {'User-A

防御网站数据爬取:策略与实践

随着互联网的发展,数据成为企业最宝贵的资产之一。然而,这种宝贵的数据也吸引着不法分子的目光,利用自动化工具(即爬虫)非法抓取网站上的数据,给企业和个人带来了严重的安全隐患。为了保护网站免受爬虫侵害,我们需要实施一系列技术和策略性的防御措施。 1. 了解爬虫的工作原理 爬虫通常按照一定的规则自动浏览互联网上的网页,抓取信息。它们通过解析HTML页面,提取所需数据,并可能进一步跟踪页面上的链接,继