本文主要是介绍第6课:学习用 requests 请求网站,并得到网站数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
本期课程目录:
- 什么是 requests:
- 如何安装 requests:
- Requests 库的使用:
- 那么我们怎么使用 requests 来模拟浏览器,去请求网站呢?
- requests.get() 解释:
- 什么是网址:
- 用 requests.get() , 请求网站 是否成功请求:
- 用 requests ,打印输出获取到的请求信息:
- 代码整体思路:
什么是 requests:
requests 中文翻译:请求(Requests) ,那什么是请求呢?字面意义就是 提出要求,希望得到满足。 比如:“张三对李四说,能能去讲台帮我拿一下试卷吗?” 【这一句话理解为:就是张三对李四 发送了一个请求的意思】 而 李四听到张三 这句话后, 【理解为:李四接收到了张三的请求后,开始分析请求,得到请求是帮他去讲台拿一下试卷】 李四走上了讲台,找到了属于张三的试卷,然后走回来把试卷给了张三。
上述那一段举例,就是模拟了请求的过程。同理,我们在网页上 点击,输入文字,按回车 等操作。都是在向网站发送请求。然后网站根据你的操作的不同,反馈给你结果也是不一样。就好像,张三对李四说 拿下笔,那么李四拿回来的就是笔,张三对李四说 拿下 书包,那么李四拿回来的就是 书包。
为什么我们要在爬虫中用到这个 requests 呢?
因为在Pycharm 或 python IDE 的这种编辑器
这篇关于第6课:学习用 requests 请求网站,并得到网站数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!