Python+Scrapy爬取人民网

2023-11-03 09:59
文章标签 python scrapy 爬取 人民网

本文主要是介绍Python+Scrapy爬取人民网,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Python+Scrapy爬取人民网

一.准备工作:

​ ①安装python3

​ ②安装scrapy

​ ③安装docker,用来运行splash,splash是用来提供js渲染服务(python中还需利用pip安装scrapy-splash 库)

注意:win10需要安装docker客户端(https://www.docker.com/

),Linux的安装就比较简单了(自行百度)。安装上docker后,拉取镜像(docker pull scrapinghub/splash),运行镜像(docker run -p 8050:8050 scrapinghub/splash)。

二.人民网分析(http://www.people.com.cn/):

①本文介绍人民网首页如何抓取,进入人民网展示的就是首页内容,每隔一段时间首页的内容就会更新,如何不断地爬取首页的新闻呢,接下来就看一下首页的源码分析。观察下图,可以看出首页的文章存在ul标签中,点击其它文章会发现,虽然文章都存在ul标签中,但是class name确不一样,下图一ul class=‘list14’,图二的文章连接存在ul class = 'list14 top’的标签中,有两种方法我们可以把这两种标签中的文章url提取出来,一是提取所有的ul,不管标签的class是什么,二是提取class包含‘list14’的ul。提取方法分别如下:

 #提取所有<ul>下面文章的链接,不区分class namenews_list = response.xpath('//ul//li//a/@href').extract()
#提取<ul> class name包含list14标签下面的文章链接
news_list = response.xpath('//ul[contains(@class,"list14")]//li//a/@href').extract()

在这里插入图片描述
​ 图一

在这里插入图片描述
​ 图二

②接下来就是如何请求首页地址,获取首页的信息,以及提取出文章url后,如何获得文章的具体内容。获取首页内容的代码如下:

    def start_requests(self):# 每隔一段时间定时执行爬虫程序,在爬虫执行钱,清空redis,然后再爬取,避免重复。job_redis.delete('dingding:people_urls')#人民网网址target_url = 'http://www.people.com.cn/'#callback是要调用的函数yield SplashRequest(url=target_url, callback=self.list_parse, headers=headers,args={'wait':0.5}, endpoint='render.html')
 # 抓取文章列表函数def list_parse(self, response):info_type = "资讯(热点)"info_platform = "人民网"item = MyspiderItem()# 提取首页文章的url,提取出来后,可以把url放入redis,后续抓取文章具体内容使用news_list = response.xpath('//ul[contains(@class,"list14")]//li//a/@href').extract()
#上面提取出的news_list是个数组,循环数组,把每个文章的article_url放入redis,循环代码省略
job_redis.sadd('dingding:people_urls', article_url)

③文章的url已经存入redis,接下来就可以根据文章的url爬取具体的文章内容了。首先从redis中取文章url,然后根据url发起请求,最后提取response中的内容。代码如下:

#从redis中取文章url
article_url = job_redis.spop('dingding:people_urls')
#发起SplashRequest请求
while article_url:# 休眠time.sleep(3)yield SplashRequest(url=article_url, callback=self.article_parse, headers=headers, 		args={'wait': 0.5}, endpoint='render.html')
# 抓取文章具体内容函数def article_parse(self, response):info_type = "资讯(热点)"info_platform = "人民网"p_info = ""image = ""article_title = ""article_content = ""article_source = ""article_author = ""item = MyspiderItem()# 标题title = response.xpath('//div[@class="clearfix w1000_320 text_title"]/h1/text()').extract()# 文章作者author = response.xpath('//p[@class="author"]/text()').extract()time = response.xpath('//div[@class="box01"]/div[@class="fl"]/text()').extract()source = response.xpath('//div[@class="box01"]/div[@class="fl"]/a/text()').extract()

④人民网的新闻会不断更新,为了源源不断的获取网站的数据,就需要设置定时任务,每隔一段时间进行爬取。网站数据的去重这里没有给出,我是在存redis之前操作数据库进行去重,有啥更好的去重办法欢迎指教。我把抓取的文章详情存到数据库了,具体的代码也不给出了,我的一篇爬取36氪网站的文章有相关代码,可以参考一下。

这篇关于Python+Scrapy爬取人民网的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/337403

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

nudepy,一个有趣的 Python 库!

更多资料获取 📚 个人网站:ipengtao.com 大家好,今天为大家分享一个有趣的 Python 库 - nudepy。 Github地址:https://github.com/hhatto/nude.py 在图像处理和计算机视觉应用中,检测图像中的不适当内容(例如裸露图像)是一个重要的任务。nudepy 是一个基于 Python 的库,专门用于检测图像中的不适当内容。该

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

HTML提交表单给python

python 代码 from flask import Flask, request, render_template, redirect, url_forapp = Flask(__name__)@app.route('/')def form():# 渲染表单页面return render_template('./index.html')@app.route('/submit_form',

Python QT实现A-star寻路算法

目录 1、界面使用方法 2、注意事项 3、补充说明 用Qt5搭建一个图形化测试寻路算法的测试环境。 1、界面使用方法 设定起点: 鼠标左键双击,设定红色的起点。左键双击设定起点,用红色标记。 设定终点: 鼠标右键双击,设定蓝色的终点。右键双击设定终点,用蓝色标记。 设置障碍点: 鼠标左键或者右键按着不放,拖动可以设置黑色的障碍点。按住左键或右键并拖动,设置一系列黑色障碍点

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

【Python报错已解决】AttributeError: ‘list‘ object has no attribute ‘text‘

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 前言一、问题描述1.1 报错示例1.2 报错分析1.3 解决思路 二、解决方法2.1 方法一:检查属性名2.2 步骤二:访问列表元素的属性 三、其他解决方法四、总结 前言 在Python编程中,属性错误(At