scrapy爬虫进阶案例--爬取前程无忧招聘信息

2024-02-05 08:59

本文主要是介绍scrapy爬虫进阶案例--爬取前程无忧招聘信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

上一次我们进行了scrapy的入门案例讲解,相信大家对此也有了一定的了解,详见新手入门的Scrapy爬虫操作–超详细案例带你入门。接下来我们再来一个案例来对scrapy操作进行巩固。

一、爬取的网站

这里我选择的是杭州数据分析的岗位,网址如下:https://search.51job.com/list/080200,000000,0000,32,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590,2,1.html?lang=c&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&ord_field=0&dibiaoid=0&line=&welfare=
在这里插入图片描述

二、爬取的详细步骤

这里基础的scrapy操作,如创建scrapy项目等就不赘述了。忘记的可以看我上一篇:新手入门的Scrapy爬虫操作–超详细案例带你入门
目标:将爬取的职位名,公司名,公司类型,薪资,工作信息(城市,经验,招聘人数,发布日期),职位信息,工作地址,工作详情连接,字段保存到mysql中。

1、爬取信息的分析过程

由于每一个职位的信息都不同,需要我们点击去跳转到职位详情页面去进行爬取。这里我们可以看到每一条岗位信息都对应一个div
在这里插入图片描述
点开div具体可以看到工作详情信息的链接,于是想到利用xpath获取到每一个岗位的详情链接然后进行跳转以便获取到所需的信息。
上面黑框是谷歌插件xpath helper,挺好用的,大家可以去下载一下。
这里有个小捷径,就是在你选择的元素上面右键点击复制xpath路径,就会获得该元素的xpath路径,然后再在上面进行修改获取所有的链接。

在这里插入图片描述
点击跳转进行到详情页面
对需要爬取的信息进行划分:
在这里插入图片描述

2、具体爬取代码

这里再介绍一下scrapy中文件的含义:

scrapy.cfg:项目的配置文件
spiders/:我们写的爬虫文件放置在这个文件夹下面,我这里是job_detail.py
init.py:一般为空文件,但是必须存在,没有__init__.py表明他所在的目录只是目录不是包
items.py:项目的目标文件,定义结构化字段,保存爬取的数据
middlewares.py:项目的中间件
pipelines.py:项目的管道文件
setting.py:项目的设置文件

(1)、编写items.py

需要爬取的字段:

import scrapyclass ScrapyjobItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()# 职位名positionName = scrapy.Field()# 公司名companyName = scrapy.Field()# 公司类型companyType = scrapy.Field()# 薪资salary = scrapy.Field()# 工作信息(城市,经验,招聘人数,发布日期)jobMsg = scrapy.Field()# 职位信息positionMsg = scrapy.Field()# 工作地址address = scrapy.Field()# 工作详情连接link = scrapy.Field()

(2)、编写spider文件夹下的爬虫文件

注意: 这里有一个坑,我之前在写allowed_domains时写的是www.search.51job.com后面发现在爬取数据的时候一直为空,后来百度搜了一下发现是我们从工作详情链接跳转时域名被被过滤了,不是在原来的域名下了,这里改成一级域名。

import scrapy
from scrapy_job.items import ScrapyjobItemclass JobSpiderDetail(scrapy.Spider):# 爬虫名称  启动爬虫时必要的参数name = 'job_detail'allowed_domains = ['51job.com']  # 二次迭代时域名被过滤了  改成一级域名# 起始的爬取地址start_urls = ['https://search.51job.com/list/080200,000000,0000,32,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590,2,1.html?lang=c&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&ord_field=0&dibiaoid=0&line=&welfare=']# 找到详细职位信息的链接 进行跳转def parse(self, response):# 找到工作的详情页地址,传递给回调函数parse_detail解析node_list = response.xpath("//div[2]/div[4]")for node in node_list:# 获取到详情页的链接link = node.xpath("./div/div/a/@href").get()print(link)if link:yield scrapy.Request(link, callback=self.parse_detail)# 设置翻页爬取# 获取下一页链接地址next_page = response.xpath("//li[@class='bk'][last()]/a/@href").get()if next_page:# 交给schedule调度器进行下一次请求                     开启不屏蔽过滤yield scrapy.Request(next_page, callback=self.parse, dont_filter=True)# 该函数用于提取详细页面的信息def parse_detail(self, response):item = ScrapyjobItem()# 详细页面的职业信息  item['positionName'] = response.xpath("//div[@class='cn']/h1/@title").get()item['companyName'] = response.xpath("//div[@class='com_msg']//p/text()").get()item['companyType'] = response.xpath("//div[@class='com_tag']//p/@title").extract()item['salary'] = response.xpath("//div[@class='cn']/strong/text()").get()item['jobMsg'] = response.xpath("//p[contains(@class, 'msg')]/@title").extract()item['positionMsg'] = response.xpath("//div[contains(@class, 'job_msg')]//text()").extract()item['address'] = response.xpath("//p[@class='fp'][last()]/text()").get()item['link'] = response.url# print(item['positionMsg'])yield item

(3)、编写pipelines.py

# 在 pipeline.py 文件中写一个中间件把数据保存在MySQL中
class MysqlPipeline(object):# from_crawler 中的参数crawler表示这个项目本身# 通过crawler.settings.get可以读取settings.py文件中的配置信息@classmethoddef from_crawler(cls, crawler):cls.host = crawler.settings.get('MYSQL_HOST')cls.user = crawler.settings.get('MYSQL_USER')cls.password = crawler.settings.get('MYSQL_PASSWORD')cls.database = crawler.settings.get('MYSQL_DATABASE')cls.table_name = crawler.settings.get('MYSQL_TABLE_NAME')return cls()# open_spider表示在爬虫开启的时候调用此方法(如开启数据库)def open_spider(self, spider):# 连接数据库self.db = pymysql.connect(self.host, self.user, self.password, self.database, charset='utf8')self.cursor = self.db.cursor()# process_item表示在爬虫的过程中,传入item,并对item作出处理def process_item(self, item, spider):# 向表中插入爬取的数据  先转化成字典data = dict(item)table_name = self.table_namekeys = ','.join(data.keys())values = ','.join(['%s'] * len(data))sql = 'insert into %s (%s) values (%s)' % (table_name, keys, values)self.cursor.execute(sql, tuple(data.values()))self.db.commit()return item# close_spider表示在爬虫结束的时候调用此方法(如关闭数据库)def close_spider(self, spider):self.db.close()# 写一个管道中间件StripPipeline清洗空格和空行
class StripPipeline(object):def process_item(self, item, job_detail):item['positionName'] = ''.join(item['positionName']).strip()item['companyName'] = ''.join(item['companyName']).strip()item['companyType'] = '|'.join([i.strip() for i in item['companyType']]).strip().split("\n")item['salary'] = ''.join(item['salary']).strip()item['jobMsg'] = ''.join([i.strip() for i in item['jobMsg']]).strip()item['positionMsg'] = ''.join([i.strip() for i in item['positionMsg']]).strip()item['address'] = ''.join(item['address']).strip()return item

(4)、设置settings.py

# Obey robots.txt rules
ROBOTSTXT_OBEY = False# 把我们刚写的两个管道文件配置进去,数值越小优先级越高
# Configure item pipelines
# See https://docs.scrapy.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {# 'scrapy_qcwy.pipelines.ScrapyQcwyPipeline': 300,'scrapy_qcwy.pipelines.MysqlPipeline': 200,'scrapy_qcwy.pipelines.StripPipeline': 199,
}# Mysql 配置
MYSQL_HOST = 'localhost'
MYSQL_USER = 'root'
MYSQL_PASSWORD = 'root'
MYSQL_DATABASE = 'qcwy'
MYSQL_TABLE_NAME = 'job_detail'

查看数据库结果

在这里插入图片描述
在这里插入图片描述

这篇关于scrapy爬虫进阶案例--爬取前程无忧招聘信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/680398

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Java进阶13讲__第12讲_1/2

多线程、线程池 1.  线程概念 1.1  什么是线程 1.2  线程的好处 2.   创建线程的三种方式 注意事项 2.1  继承Thread类 2.1.1 认识  2.1.2  编码实现  package cn.hdc.oop10.Thread;import org.slf4j.Logger;import org.slf4j.LoggerFactory

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

客户案例:安全海外中继助力知名家电企业化解海外通邮困境

1、客户背景 广东格兰仕集团有限公司(以下简称“格兰仕”),成立于1978年,是中国家电行业的领军企业之一。作为全球最大的微波炉生产基地,格兰仕拥有多项国际领先的家电制造技术,连续多年位列中国家电出口前列。格兰仕不仅注重业务的全球拓展,更重视业务流程的高效与顺畅,以确保在国际舞台上的竞争力。 2、需求痛点 随着格兰仕全球化战略的深入实施,其海外业务快速增长,电子邮件成为了关键的沟通工具。

[MySQL表的增删改查-进阶]

🌈个人主页:努力学编程’ ⛅个人推荐: c语言从初阶到进阶 JavaEE详解 数据结构 ⚡学好数据结构,刷题刻不容缓:点击一起刷题 🌙心灵鸡汤:总有人要赢,为什么不能是我呢 💻💻💻数据库约束 🔭🔭🔭约束类型 not null: 指示某列不能存储 NULL 值unique: 保证某列的每行必须有唯一的值default: 规定没有给列赋值时的默认值.primary key:

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti