python scrapy爬虫框架 抓取BOSS直聘平台 数据可视化统计分析

本文主要是介绍python scrapy爬虫框架 抓取BOSS直聘平台 数据可视化统计分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用python scrapy实现BOSS直聘数据抓取分析

前言

  随着金秋九月的悄然而至,我们迎来了业界俗称的“金九银十”跳槽黄金季,周围的朋友圈中弥漫着探索新机遇的热烈氛围。然而,作为深耕技术领域的程序员群体,我们往往沉浸在代码的浩瀚宇宙中,享受着解决技术难题的乐趣,却也不经意间与职场外部的风云变幻保持了一定的距离,对行业动态或许仅有一鳞半爪的了解,甚至偶有盲区。

  但正是这份对技术的执着与热爱,铸就了我们程序猿独有的智慧与创造力。面对信息获取的局限,我们从不轻言放弃,而是选择以技术为舟,智慧为帆,主动出击,寻找破局之道。于是,我,一个满怀热情的程序员,决定利用我的技术专长,为这一难题量身打造解决方案。

  我将运用python爬虫技术,构建一套针对于BOSS直聘平台的数据抓取和统计分析脚本。这个脚本不仅能够实时抓取并分析薪资范围、所需经验和学历,还能根据关键词进行检索。如此,即便我们身处技术的深海,也能保持对外部世界的敏锐洞察,确保在每一次职业抉择中都能做出最优选择。

  通过这样的尝试,我希望能为广大的程序员朋友们搭建起一座桥梁,连接技术与职场,让每一位程序猿都能在技术的海洋中自由遨游的同时,也能精准把握每一次跃向更广阔天地的机会。

效果图

抓取的部分数据

在这里插入图片描述

统计分析图表

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

技术栈

  • 项目整体使用scrapy爬虫框架
  • 使用selenium解决动态网页加载
  • 使用pandas进行数据分析统计
  • 使用matplotlib实现图表生成

源代码

由于spiders框架会自动生成目录结构,所以这里我只放出核心代码,为大家提供一个思路,完整代码可访问我的GitHub.
import scrapy
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as ec
from selenium.webdriver.support.ui import WebDriverWait# 爬虫代码
class BossSpider(scrapy.Spider):name = "bossSpider"# 设置输出文件custom_settings = {'FEED_URI': 'BossData.csv',}# 创建WebDriver实例,不能开启无头模式,否则无法获取到数据driver = webdriver.Edge()query = input("输入要搜索的职位、公司:")page = 1def start_requests(self):url = f"https://www.zhipin.com/web/geek/job?query={self.query}&city=100010000"self.driver.get(url)yield scrapy.Request(url, callback=self.parse, meta={'driver': self.driver})def parse(self, response, **kwargs):driver = response.meta['driver']try:# 等待元素加载成功WebDriverWait(driver, 60).until(ec.presence_of_element_located((By.XPATH, '//div[@class="search-job-result"]//li[@class="job-card-wrapper"]')))job_elements = driver.find_elements(By.XPATH,'//div[@class="search-job-result"]//li[@class="job-card-wrapper"]')for element in job_elements:data_store = DataStore()# 职位名称data_store['name'] = element.find_element(By.XPATH, './/span[@class="job-name"]').text# 工作地点data_store['area'] = element.find_element(By.XPATH, './/span[@class="job-area"]').text# 薪水data_store['salary'] = element.find_element(By.XPATH, './/span[@class="salary"]').text# 标签(经验、学历)tag = element.find_element(By.XPATH, './/ul[@class="tag-list"]')tag_list = tag.find_elements(By.TAG_NAME, 'li')data_store['experience'] = tag_list[0].textdata_store['education'] = tag_list[1].text# 联系人data_store['contact_person'] = element.find_element(By.XPATH, './/div[@class="info-public"]').text# 公司logocompany_logo = element.find_element(By.XPATH, './/div[@class="company-logo"]')logo_img = company_logo.find_element(By.TAG_NAME, 'a').get_attribute('href')data_store['company_logo'] = logo_img# 公司名称data_store['company_name'] = element.find_element(By.XPATH, './/h3[@class="company-name"]').text# 公司标签company_tag_list = element.find_element(By.XPATH, './/ul[@class="company-tag-list"]')tag_list = company_tag_list.find_elements(By.TAG_NAME, 'li')data_store['company_tag'] = ','.join([tag.text for tag in tag_list if tag.text])# 职位描述footer = element.find_element(By.XPATH, './/div[@class="job-card-footer clearfix"]')tag_list = footer.find_elements(By.TAG_NAME, 'li')data_store['tag_list'] = ','.join([tag.text for tag in tag_list if tag.text])# 公司福利data_store['info_desc'] = footer.find_element(By.XPATH, './/div[@class="info-desc"]').textyield data_store.dataself.page += 1if self.page <= 3:next_page_url = f"https://www.zhipin.com/web/geek/job?query={self.query}&city=100010000&page={self.page}"self.driver.get(next_page_url)yield scrapy.Request(next_page_url, callback=self.parse, meta={'driver': self.driver})except Exception as e:# 处理超时异常或其他异常print(f"Error: {e}")yield None# 存储抓到的数据
class DataStore:def __init__(self):self.data = {}def __setitem__(self, key, value):self.data[key] = valuedef __getitem__(self, item):return self.data[item]
import pandas as pd
import matplotlib.pyplot as pltplt.rcParams['font.sans-serif'] = ['SimHei']  # 设置中文字体为黑体
plt.rcParams['axes.unicode_minus'] = False  # 正确显示负号# 数据分析
def data_analyse(csv, column, title, x_label, y_label):# 读取CSV文件data = pd.read_csv(csv)# 计数,并按升序排列value_counts = data[column].value_counts(ascending=True).sort_index(ascending=True)# 绘制柱状图value_counts.plot(kind='bar')# 在每个柱子顶部添加数字for i, val in enumerate(value_counts):plt.text(i, val, int(val), ha='center', va='bottom')# 设置标题plt.title(title)# 设置X轴标签plt.xlabel(x_label)# 设置Y轴标签plt.ylabel(y_label)# 自动调整子图参数,使之填充整个图表区域,边距不足时可能报错,但不会影响程序执行plt.tight_layout()plt.show()if __name__ == '__main__':data_analyse('BossData.csv', 'salary', '薪资统计', '范围', '数量')data_analyse('BossData.csv', 'experience', '经验统计', '经验', '数量')data_analyse('BossData.csv', 'education', '学历统计', '学历', '数量')

未来功能扩展

  • 不局限在BOSS平台,扩展多种平台的抓取和分析。
  • 增加更多的检索条件,提炼更加精准的数据分析。
  • 如果有足够的精力,可以考虑将数据存储在数据库表中,然后利用SQL语句和后端逻辑进行深入的数据分析还可以通过前端图表组件,如ECharts或D3.js,来创建直观且美观的数据可视化。

合法性

  • robots协议:由于互联网开放、互联互通的特点,尽管互联网企业可以在robots协议中通过技术术语告知搜索引擎的网络机器人其希望或不希望抓取的网页内容,但robots协议的初衷是为了指引搜索引擎的网络机器人更有效的抓取对网络用户有用的信息,从而更好地促进信息共享,而不应将robots协议作为限制信息流通的工具。
  • 技术手段:没有使用模拟登录、破解反爬机制等涉及网络安全的技术手段。
  • 数据用途:爬取的数据不会用于商业用途或侵犯个人隐私。
  • 网站压力:没有使用突破其IP封锁的技术,不会造成DDoS攻击。
  • 本程序仅供学习和研究之用。若您使用或参考本程序进行任何可能导致违法行为的操作,相关责任将由您自行承担。我们建议您在使用过程中遵守相关法律法规,确保所有行为合法合规。

结束语

  代码行数不多,能以少量的代码实现复杂的功能,是每位程序员的至高追求。在我当前的项目中,尽管所实现的功能看似并不纷繁复杂,但正是得益于Python语言的简洁与强大,使得这一过程变得既高效又优雅。Python以其易读性、易写性及丰富的库支持,极大地简化了开发流程,让我能够专注于功能的实现而非语法细节。

  当然,技术世界日新月异,BOSS直聘平台作为一个不断发展的平台,未来很可能会进行更新迭代。在此,我想对关注此项目的朋友们说,如果您在使用或测试过程中,提前发现了因平台更新而导致的功能兼容性问题,请不吝私信于我。我将在力所能及且时间允许的情况下,积极跟进并更新代码,以确保项目的持续可用性和稳定性。

  让我们共同期待,通过不断的学习与交流,能够在这个充满挑战与机遇的编程世界中,携手前行,共创更加辉煌的成就!

这篇关于python scrapy爬虫框架 抓取BOSS直聘平台 数据可视化统计分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1143497

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下