讲了这么多关于python爬虫,今天带你回顾ython爬虫知识

2024-01-28 06:50

本文主要是介绍讲了这么多关于python爬虫,今天带你回顾ython爬虫知识,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理

以下文章来源于腾讯云 作者:东风冷雪

( 想要学习Python?Python学习交流群:1039649593,满足你的需求,资料都已经上传群文件流,可以自行下载!还有海量最新2020python学习资料。 )
在这里插入图片描述

最常用的requests库, 通过requests对象的get方法,获取一个response对象。jsp的东西。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
其中timeout,proxies,headers,cookies,verify,是我用到过的东西。

response对象的方法和属性
text属性,属于字符流,获取文字。
content属性,二进制,获取图片,文件等

hashlib
摘要算法简介
Python的hashlib提供了常见的摘要算法,如MD5,SHA1等等。

什么是摘要算法呢?摘要算法又称哈希算法、散列算法。它通过一个函数,把任意长度的数据转换为一个长度固定的数据串(通常用16进制的字符串表示)。

举个例子,你写了一篇文章,内容是一个字符串’how to use python hashlib - by Michael’,并附上这篇文章的摘要是’2d73d4f15c0db7f5ecb321b6a65e5d6d’。如果有人篡改了你的文章,并发表为’how to use python hashlib - by Bob’,你可以一下子指出Bob篡改了你的文章,因为根据’how to use python hashlib - by Bob’计算出的摘要不同于原始文章的摘要。

可见,摘要算法就是通过摘要函数f()对任意长度的数据data计算出固定长度的摘要digest,目的是为了发现原始数据是否被人篡改过。

摘要算法之所以能指出数据是否被篡改过,就是因为摘要函数是一个单向函数,计算f(data)很容易,但通过digest反推data却非常困难。而且,对原始数据做一个bit的修改,都会导致计算出的摘要完全不同。

def get_MD5(st="alice"):md5=hashlib.md5()md5.update(st.encode(encoding="utf-8"))print(md5.hexdigest())get_MD5()

代理和头部处理

def get_html(url):headers = {'Accept': '*/*','Accept-Language': 'en-US,en;q=0.8','Cache-Control': 'max-age=0','User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36','Connection': 'keep-alive','Referer': 'http://www.baidu.com/'}proxy = [{'https': 'http://yx827w:yx827w@123.249.47.2:888'},{'https': 'http://yx827w:yx827w@123.249.47.3:888'},{'https': 'http://yx827w:yx827w@123.249.47.4:888'},{'https': 'http://yx827w:yx827w@123.249.47.5:888'},{'https': 'http://yx827w:yx827w@123.249.47.6:888'},{'https': 'http://yx827w:yx827w@123.249.47.7:888'},{'https': 'http://yx827w:yx827w@123.249.47.8:888'},{'https': 'http://yx827w:yx827w@123.249.47.9:888'},{'https': 'http://yx827w:yx827w@123.249.47.10:888'},{'https': 'http://yx827w:yx827w@123.249.47.11:888'},{'https': 'http://yx827w:yx827w@123.249.47.13:888'},{'https': 'http://yx827w:yx827w@123.249.47.14:888'},{'https': 'http://yx827w:yx827w@123.249.47.15:888'},{'https': 'http://yx827w:yx827w@123.249.47.16:888'},{'https': 'http://yx827w:yx827w@123.249.47.17:888'},{'https': 'http://yx827w:yx827w@123.249.47.18:888'},{'https': 'http://yx827w:yx827w@123.249.47.19:888'},{'https': 'http://yx827w:yx827w@123.249.47.20:888'},{'https': 'http://yx827w:yx827w@123.249.47.21:888'},{'https': 'http://yx827w:yx827w@123.249.47.22:888'},{'https': 'http://yx827w:yx827w@123.249.47.23:888'},{'https': 'http://yx827w:yx827w@123.249.47.24:888'},{'https': 'http://yx827w:yx827w@123.249.47.25:888'},{'https': 'http://yx827w:yx827w@123.249.47.26:888'},{'https': 'http://yx827w:yx827w@123.249.47.27:888'},{'https': 'http://yx827w:yx827w@123.249.47.28:888'},{'https': 'http://yx827w:yx827w@123.249.47.29:888'},{'https': 'http://yx827w:yx827w@123.249.47.30:888'},{'https': 'http://yx827w:yx827w@123.249.47.31:888'},{'https': 'http://yx827w:yx827w@123.249.47.32:888'},{'https': 'http://yx827w:yx827w@123.249.47.33:888'},{'https': 'http://yx827w:yx827w@123.249.47.34:888'},{'https': 'http://yx827w:yx827w@123.249.47.35:888'},{'https': 'http://yx827w:yx827w@123.249.47.36:888'},{'https': 'http://yx827w:yx827w@123.249.47.37:888'},{'https': 'http://yx827w:yx827w@123.249.47.38:888'},{'https': 'http://yx827w:yx827w@123.249.47.39:888'},{'https': 'http://yx827w:yx827w@123.249.47.40:888'},{'https': 'http://yx827w:yx827w@123.249.47.41:888'},]pro=random.choice(proxy)print(type(pro))print(pro)res=requests.get(url,headers=head,proxies=pro)html=res.text //返回字符串。print(html)return html

xpath技术

1.0 使用etree的HTML方法获取数据,返回的是一个节点对象

from lxml import etree
html=get_html("https://blog.csdn.net/u014595019/article/details/51884529")
print(html)
page=etree.HTML(html)
print(type(page),page)
xp='//*[@id="mainBox"]/main/div[1]/div/div/div[2]/div[1]/span[2]'
readnum=page.xpath(xp)for a in readnum:print(a.attrib)print(a.text)print(a.get("class"))

结果如下

<class 'lxml.etree._Element'> <Element html at 0x47a7288>
{'class': 'read-count'}
阅读数:40927
read-count

这篇关于讲了这么多关于python爬虫,今天带你回顾ython爬虫知识的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/652815

相关文章

Python判断for循环最后一次的6种方法

《Python判断for循环最后一次的6种方法》在Python中,通常我们不会直接判断for循环是否正在执行最后一次迭代,因为Python的for循环是基于可迭代对象的,它不知道也不关心迭代的内部状态... 目录1.使用enuhttp://www.chinasem.cnmerate()和len()来判断for

使用Python实现高效的端口扫描器

《使用Python实现高效的端口扫描器》在网络安全领域,端口扫描是一项基本而重要的技能,通过端口扫描,可以发现目标主机上开放的服务和端口,这对于安全评估、渗透测试等有着不可忽视的作用,本文将介绍如何使... 目录1. 端口扫描的基本原理2. 使用python实现端口扫描2.1 安装必要的库2.2 编写端口扫

使用Python实现操作mongodb详解

《使用Python实现操作mongodb详解》这篇文章主要为大家详细介绍了使用Python实现操作mongodb的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、示例二、常用指令三、遇到的问题一、示例from pymongo import MongoClientf

使用Python合并 Excel单元格指定行列或单元格范围

《使用Python合并Excel单元格指定行列或单元格范围》合并Excel单元格是Excel数据处理和表格设计中的一项常用操作,本文将介绍如何通过Python合并Excel中的指定行列或单... 目录python Excel库安装Python合并Excel 中的指定行Python合并Excel 中的指定列P

一文详解Python中数据清洗与处理的常用方法

《一文详解Python中数据清洗与处理的常用方法》在数据处理与分析过程中,缺失值、重复值、异常值等问题是常见的挑战,本文总结了多种数据清洗与处理方法,文中的示例代码简洁易懂,有需要的小伙伴可以参考下... 目录缺失值处理重复值处理异常值处理数据类型转换文本清洗数据分组统计数据分箱数据标准化在数据处理与分析过

Python调用另一个py文件并传递参数常见的方法及其应用场景

《Python调用另一个py文件并传递参数常见的方法及其应用场景》:本文主要介绍在Python中调用另一个py文件并传递参数的几种常见方法,包括使用import语句、exec函数、subproce... 目录前言1. 使用import语句1.1 基本用法1.2 导入特定函数1.3 处理文件路径2. 使用ex

Python脚本实现自动删除C盘临时文件夹

《Python脚本实现自动删除C盘临时文件夹》在日常使用电脑的过程中,临时文件夹往往会积累大量的无用数据,占用宝贵的磁盘空间,下面我们就来看看Python如何通过脚本实现自动删除C盘临时文件夹吧... 目录一、准备工作二、python脚本编写三、脚本解析四、运行脚本五、案例演示六、注意事项七、总结在日常使用

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Python进阶之Excel基本操作介绍

《Python进阶之Excel基本操作介绍》在现实中,很多工作都需要与数据打交道,Excel作为常用的数据处理工具,一直备受人们的青睐,本文主要为大家介绍了一些Python中Excel的基本操作,希望... 目录概述写入使用 xlwt使用 XlsxWriter读取修改概述在现实中,很多工作都需要与数据打交