Python+selenium爬取智联招聘的职位信息

2024-03-19 04:40

本文主要是介绍Python+selenium爬取智联招聘的职位信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

整个爬虫是基于selenium和Python来运行的,运行需要的包
####相关模块:

  • mysql
  • matplotlib
  • selenium

需要安装selenium火狐浏览器驱动,百度的搜寻。

整个爬虫是模块化组织的,不同功能的函数和类放在不同文件中,最后将需要配置的常量放在constant.py中

整个爬虫的主线程是Main.py文件,在设置好constant.py后就可以直接运行Main.py

####从主线分析

Main.py

import numpy as npimport dataFactory
import plotpy
import sqlDeal
import zhilian
from Constant import JOB_KEY
'''
遇到不懂的问题?Python学习交流群:1136201545满足你的需求,资料都已经上传群文件,可以自行下载!
'''
#
# 启动爬虫程序
zhilian.spidefmain(JOB_KEY)"""爬取数据结束后对数据可视化处理
"""
# 从数据库读取爬取的数据
# 先得到的是元组name,salray,demand,welfarevalue = sqlDeal.sqlselect()
# 工资上限,下限,平均值
updata = np.array([], dtype=np.int)
downdata = np.array([], dtype=np.int)
average = np.array([], dtype=np.int)
for item in value:salray = dataFactory.SarayToInt(item[1])salray.slove()updata = np.append(updata, salray.up)downdata = np.append(downdata, salray.down)average = np.append(average, (salray.up + salray.down) / 2)# 工资上下限
average.sort()# 匹配城市信息 暂时还未实现# 统计信息
# 两种图形都加载出来 方便查看
plotpy.plotl(average)
plotpy.plots(average)print(average, average.sum())
print("平均工资:", average.sum() / len(average))
print("最高:", average.max())
print("最低", average.min())
print("职位数", len(average))

基本是以爬虫整个执行流程来组织的

从功能文件中导入zhilian.py

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.ui import WebDriverWaitimport sqlDeal
from Constant import PAGE_NUMBER
'''
遇到不懂的问题?Python学习交流群:1136201545满足你的需求,资料都已经上传群文件,可以自行下载!
'''
def init(key="JAVA"):# 智联招聘的主页搜索关键字,初始化到采集页面url = "https://www.zhaopin.com/"opt = webdriver.FirefoxOptions()opt.set_headless()           #设置无头浏览器模式driver = webdriver.Firefox(options=opt)driver.get(url)driver.find_element_by_class_name("zp-search-input").send_keys(key)# driver.find_element_by_class_name(".zp-search-btn zp-blue-button").click()driver.find_element_by_class_name("zp-search-input").send_keys(Keys.ENTER)import timetime.sleep(2)all = driver.window_handlesdriver.switch_to_window(all[1])url = driver.current_urlreturn urlclass ZhiLian:def __init__(self, key='JAVA'):# 默认key:JAVAindexurl = init(key)self.url = indexurlself.opt = webdriver.FirefoxOptions()self.opt.set_headless()self.driver = webdriver.Firefox(options=self.opt)self.driver.get(self.url)def job_info(self):# 提取工作信息     可以把详情页面加载出来job_names = self.driver.find_elements_by_class_name("job_title")job_sarays = self.driver.find_elements_by_class_name("job_saray")job_demands = self.driver.find_elements_by_class_name("job_demand")job_welfares = self.driver.find_elements_by_class_name("job_welfare")for job_name, job_saray, job_demand, job_welfare in zip(job_names, job_sarays, job_demands, job_welfares):sqlDeal.sqldeal(str(job_name.text), str(job_saray.text), str(job_demand.text), str(job_welfare.text))# 等待页面加载print("等待页面加载")WebDriverWait(self.driver, 10, ).until(EC.presence_of_element_located((By.CLASS_NAME, "job_title")))def page_next(self):try:self.driver.find_elements_by_class_name("btn btn-pager").click()except:return Noneself.url = self.driver.current_urlreturn self.driver.current_urldef spidefmain(key="JAVA"):ZHi = ZhiLian(key)ZHi.job_info()# 设定一个爬取的页数page_count = 0while True:ZHi.job_info()ZHi.job_info()page_count += 1if page_count == PAGE_NUMBER:break# 采集结束后把对象清除del ZHiif __name__ == '__main__':
spidefmain("python")

这是调用selenium模拟浏览器加载动态页面的程序,整个爬虫的核心都是围绕这个文件来进行的。

每爬取一页信息以后就把解析的数据存储到数据库里,数据库处理函数的定义放在另外一个文件里,这里只处理加载和提取信息的逻辑

将数据存入本机的mysql数据库

import mysql.connectorfrom Constant import SELECT
from Constant import SQL_USER
from Constant import database
from Constant import passworddef sqldeal(job_name, job_salray, job_demand, job_welfare):conn = mysql.connector.connect(user=SQL_USER, password=password, database=database, use_unicode=True)cursor = conn.cursor()infostring = "insert into zhilian value('%s','%s','%s','%s')" % (job_name, job_salray, job_demand, job_welfare) + ";"cursor.execute(infostring)conn.commit()conn.close()def sqlselect():conn = mysql.connector.connect(user=SQL_USER, password=password, database=database, use_unicode=True)print("连接数据库读取信息")cursor = conn.cursor()cursor.execute(SELECT)values = cursor.fetchall()conn.commit()conn.close()return values

两个函数

第一个负责存入数据

第二个负责读取数据

读取数据以后在另外的类中处理得到的数据

例如10K-20K这样的信息,为可视化做准备

import matplotlib.pyplot as plt
import numpy as npfrom Constant import JOB_KEY# 线型图def plotl(dta):dta.sort()print("dta", [dta])num = len(dta)x = np.linspace(0, num - 1, num)print([int(da) for da in dta])print(len(dta))plt.figure()line = plt.plot(x, [sum(dta) / num for i in range(num)], dta)# plt.xlim(0, 250)plt.title(JOB_KEY + 'Job_Info')plt.xlabel(JOB_KEY + 'Job_Salray')plt.ylabel('JobNumbers')plt.show()# 条形图def plots(dta):fig = plt.figure()ax = fig.add_subplot(111)ax.hist(dta, bins=15)plt.title(JOB_KEY + 'Job_Info')plt.xlabel(JOB_KEY + 'Job_Salray')plt.ylabel('JobNumbers')
plt.show()

最后将得到的数据放入在画图程序中画图

最后计算相关数据

在爬取过程中及时将数据存入数据库,减少虚拟机内存的占比。

下面放上数据结果image

上面是金融的工作的薪酬调查

下面是材料科学的薪酬调查

image

蓝色为平均工资。

注意在平均线以上的基本为博士和硕士的学历要求。

这篇关于Python+selenium爬取智联招聘的职位信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/824818

相关文章

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、

Python中 try / except / else / finally 异常处理方法详解

《Python中try/except/else/finally异常处理方法详解》:本文主要介绍Python中try/except/else/finally异常处理方法的相关资料,涵... 目录1. 基本结构2. 各部分的作用tryexceptelsefinally3. 执行流程总结4. 常见用法(1)多个e