Python爬虫利器一之Requests库的用法

2023-11-10 23:48

本文主要是介绍Python爬虫利器一之Requests库的用法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

之前我们用了 urllib 库,这个作为入门的工具还是不错的,对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助。入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取。那么这一节来简单介绍一下 requests 库的基本用法

安装

利用 pip 安装

pip3 install requests

或者利用 easy_install

easy_install requests

通过以上两种方法均可以完成安装。

引入

首先我们引入一个小例子来感受一下

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('http://www.baidu.com')
print('type(request)', type(request))
print('request.status_code', request.status_code)
print('request.encoding', request.encoding)
print('request.cookies', request.cookies)
print('request.text', request.text)

以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

运行结果如下

type(request) <class 'requests.models.Response'>
request.status_code 200
request.encoding ISO-8859-1
request.cookies <RequestsCookieJar[<Cookie BDORZ=27315 for .baidu.com/>]>
request.text <!DOCTYPE html>
<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=http://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');</script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必读</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>

基本请求

requests库提供了http所有的基本请求方式。例如

request = requests.get(url)
request = requests.post(url)
request = requests.put(url)
request = requests.delete(url)
request = requests.head(url)
request = requests.opinions(url)

GET请求

基本GET请求

最基本的GET请求可以直接用get方法

#!/usr/bin/env python3
#coding:utf-8import requestsparams = {'key1': 'value1','key2': 'value2'
}
request = requests.get('http://httpbin.org/get', params=params)
print(request.url)

运行结果

http://httpbin.org/get?key1=value1&key2=value2

GET JSON

我们能读取服务器响应的内容。以 GitHub 时间线为例:

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('https://api.github.com/events')
print('request.text', request.text)
print('request.json()', request.json)

输出

request.text [{"id":"5435287313","type":"PushEvent","actor":=...}]
request.json() <bound method Response.json of <Response [200]>>

GET原始套接字内容

如果想获取来自服务器的原始套接字响应,可以取得 r.raw 。 不过需要在初始请求中设置 stream=True

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('https://api.github.com/events', stream=True)
print('request.raw', request.raw)
print('request.raw.read(10)', request.raw.read(10))

这样就获取了网页原始套接字内容

request.raw <requests.packages.urllib3.response.HTTPResponse object at 0x106b5f9b0>
request.raw.read(10) b'\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'

添加headers

通过传递headers参数来添加headers

#!/usr/bin/env python3
#coding:utf-8import requestsparams = {'key1': 'value1','key2': 'value2'
}
headers= {'content-type': 'application/json'
}
request = requests.get('http://httpbin.org/get', params=params, headers=headers)
print(request.url)

输出

http://httpbin.org/get?key1=value1&key2=value2

POST请求

基本POST请求

对于 POST 请求来说,我们一般需要为它增加一些参数。那么最基本的传参方法可以利用data 这个参数

#!/usr/bin/env python3
#coding:utf-8import requestsdata = {'key1': 'value1','key2': 'value2'
}
request = requests.post('http://httpbin.org/post', data=data)
print('request.text', request.text)

输出结果

request.text {"args": {},"data": "","files": {},"form": {"key1": "value1","key2": "value2"},"headers": {"Accept": "*/*","Accept-Encoding": "gzip, deflate","Content-Length": "23","Content-Type": "application/x-www-form-urlencoded","Host": "httpbin.org","User-Agent": "python-requests/2.13.0"},"json": null,"origin": "120.236.174.172","url": "http://httpbin.org/post"
}

POST JSON

有时候我们需要传送的信息不是表单形式的,需要我们传JSON格式的数据过去,所以我们可以用json.dumps()方法把表单数据序列化

#!/usr/bin/env python3
#coding:utf-8import json
import requestsdata = {'some': 'data'
}
request = requests.post('http://httpbin.org/post', data=json.dumps(data))
print('request.text', request.text)

输出

request.text {"args": {},"data": "{\"some\": \"data\"}","files": {},"form": {},"headers": {"Accept": "*/*","Accept-Encoding": "gzip, deflate","Content-Length": "16","Host": "httpbin.org","User-Agent": "python-requests/2.13.0"},"json": {"some": "data"},"origin": "120.236.174.172","url": "http://httpbin.org/post"
}

在2.4.2版本后,直接使用json参数就可以进行编码

#!/usr/bin/env python3
#coding:utf-8import json
import requestsdata = {'some': 'data'
}
# request = requests.post('http://httpbin.org/post', data=json.dumps(data))
request = requests.post('http://httpbin.org/post', json=data)
print('request.text', request.text)

上传文件

如果想要上传文件,那么直接用files参数即可

#!/usr/bin/env python3
#coding:utf-8import requestsfiles = {'file': open('test.txt', 'rb')
}
request = requests.post('http://httpbin.org/post', files=files)
print('request.text', request.text)

输出

request.text {"args": {},"data": "","files": {"file": "hello word!\n"},"form": {},"headers": {"Accept": "*/*","Accept-Encoding": "gzip, deflate","Content-Length": "156","Content-Type": "multipart/form-data; boundary=e76e934f387f4013a0cb03f0cc7f636d","Host": "httpbin.org","User-Agent": "python-requests/2.13.0"},"json": null,"origin": "120.236.174.172","url": "http://httpbin.org/post"
}

上传流

requests 是支持流式上传的,这允许你发送大的数据流或文件而无需先把它们读入内存。要使用流式上传,仅需为你的请求体提供一个类文件对象即可

#!/usr/bin/env python3
#coding:utf-8import requestswith open('test.txt', 'rb') as f:request = requests.post('http://httpbin.org/post', data=f)
print('request.text', request.text)

输出结果和直接用文件上传一样

Cookies

如果一个响应中包含了cookie,那么我们可以利用 cookies 变量来拿到

也可以利用cookies参数来向服务器发送cookies信息

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('http://httpbin.org/cookies')
print('request.cookies', requests.cookies)
print('request.text', request.text)
cookies = {'cookies_are': 'working'
}
request = requests.get('http://httpbin.org/cookies', cookies=cookies)
print('request.cookies', requests.cookies)
print('request.text', request.text)

输出

request.cookies <module 'requests.cookies' from '/usr/local/lib/python3.6/site-packages/requests/cookies.py'>
request.text {"cookies": {}
}request.cookies <module 'requests.cookies' from '/usr/local/lib/python3.6/site-packages/requests/cookies.py'>
request.text {"cookies": {"cookies_are": "working"}
}

超时配置

可以利用 timeout 变量来配置最大请求时间

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('http://www.google.com.hk', timeout=0.01)
print(request.url)

如果超时,会抛出一个异常

Traceback (most recent call last):File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/connection.py", line 141, in _new_conn(self.host, self.port), self.timeout, **extra_kw)File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/util/connection.py", line 83, in create_connectionraise errFile "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/util/connection.py", line 73, in create_connectionsock.connect(sa)
socket.timeout: timed out

会话对象

在以上的请求中,每次请求其实都相当于发起了一个新的请求。也就是相当于我们每个请求都用了不同的浏览器单独打开的效果。也就是它并不是指的一个会话,即使请求的是同一个网址。比如

#!/usr/bin/env python3
#coding:utf-8import requestsrequests.get('http://httpbin.org/cookies/set/sessioncookie/123456789')
request = requests.get('http://httpbin.org/cookies')
print(request.text)

输出

{"cookies": {}
}

很明显,这不在一个会话中,无法获取 cookies,那么在一些站点中,我们需要保持一个持久的会话怎么办呢?就像用一个浏览器逛淘宝一样,在不同的选项卡之间跳转,这样其实就是通过request.Session建立了一个长久会话

解决方案如下

#!/usr/bin/env python3
#coding:utf-8import requests# 通过session建立长久会话
session = requests.Session()
session.get('http://httpbin.org/cookies/set/sessioncookie/123456789')
request = session.get('http://httpbin.org/cookies')
print(request.text)

输出

{"cookies": {"sessioncookie": "123456789"}
}

发现可以成功获取到 cookies 了,这就是建立一个会话到作用。体会一下。

那么既然会话是一个全局的变量,那么我们肯定可以用来全局的配置了。

当在会话中设置headers,又在请求中设置headers,两个变量都会传送过去

#!/usr/bin/env python3
#coding:utf-8import requestsheaders1 = {'test1': 'true'
}
headers2 = {'test2': 'true'
}
session = requests.Session()
session.headers.update(headers1)
request = session.get('http://httpbin.org/headers', headers=headers2)
print(request.text)

输出

{"headers": {"Accept": "*/*","Accept-Encoding": "gzip, deflate","Host": "httpbin.org","Test1": "true","Test2": "true","User-Agent": "python-requests/2.13.0"}
}

SSL证书验证

现在随处可见 https 开头的网站,Requests可以为HTTPS请求验证SSL证书,就像web浏览器一样。要想检查某个主机的SSL证书,你可以使用 verify参数(默认为True)

现在 12306 证书不是无效的嘛,来测试一下

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('https://kyfw.12306.cn/otn', verify=True)
print(request.text)

输出

Traceback (most recent call last):File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/contrib/pyopenssl.py", line 436, in wrap_socketcnx.do_handshake()File "/usr/local/lib/python3.6/site-packages/OpenSSL/SSL.py", line 1426, in do_handshakeself._raise_ssl_error(self._ssl, result)File "/usr/local/lib/python3.6/site-packages/OpenSSL/SSL.py", line 1174, in _raise_ssl_error_raise_current_error()File "/usr/local/lib/python3.6/site-packages/OpenSSL/_util.py", line 48, in exception_from_error_queueraise exception_type(errors)
OpenSSL.SSL.Error: [('SSL routines', 'ssl3_get_server_certificate', 'certificate verify failed')]

如果想跳过证书验证,只需要把verify设置为False

来试下 github 的

#!/usr/bin/env python3
#coding:utf-8import requestsrequest = requests.get('https://kyfw.12306.cn/otn', verify=True)
print(request.text)

请求正常

代理

如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求

#!/usr/bin/env python3
#coding:utf-8import requestsproxies = {"https://www.google.com.hk/": "192.168.199.101"
}
request = requests.get('https://www.google.com.hk/', proxies=proxies)
print(request.text)

API

以上讲解了 requests 中最常用的参数,如果需要用到更多,请参考官方文档 API

API

结语

以上总结了一下 requests 的基本用法,如果你对爬虫有了一定的基础,那么肯定可以很快上手,在此就不多赘述了。

练习才是王道,大家尽快投注于实践中吧

转载于:静觅 » Python爬虫利器一之Requests库的用法

这篇关于Python爬虫利器一之Requests库的用法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/386088

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

键盘快捷键:提高工作效率与电脑操作的利器

键盘快捷键:提高工作效率与电脑操作的利器 在数字化时代,键盘快捷键成为了提高工作效率和优化电脑操作的重要工具。无论是日常办公、图像编辑、编程开发,还是游戏娱乐,掌握键盘快捷键都能带来极大的便利。本文将详细介绍键盘快捷键的概念、重要性、以及在不同应用场景中的具体应用。 什么是键盘快捷键? 键盘快捷键,也称为热键或快捷键,是指通过按下键盘上的一组键来完成特定命令或操作的方式。这些快捷键通常涉及同

bytes.split的用法和注意事项

当然,我很乐意详细介绍 bytes.Split 的用法和注意事项。这个函数是 Go 标准库中 bytes 包的一个重要组成部分,用于分割字节切片。 基本用法 bytes.Split 的函数签名如下: func Split(s, sep []byte) [][]byte s 是要分割的字节切片sep 是用作分隔符的字节切片返回值是一个二维字节切片,包含分割后的结果 基本使用示例: pa

HTML提交表单给python

python 代码 from flask import Flask, request, render_template, redirect, url_forapp = Flask(__name__)@app.route('/')def form():# 渲染表单页面return render_template('./index.html')@app.route('/submit_form',

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de