python爬虫之XPath(爬取51job招聘信息)

2024-01-18 09:30

本文主要是介绍python爬虫之XPath(爬取51job招聘信息),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

    • xpath简介
    • 爬取51job招聘信息

xpath简介

前面介绍了这么多种解析网页的方式,今天再来介绍一种xpath,
XPath即为XML路径语言(XML Path Language),它是一种用来确定XML文档中某部分位置的语言。
它可以确定元素在XML中的位置,同样我们也可以用它来获取dom节点在html中的位置,就可以便利我们爬取数据

这是今天大概内容的简介
在这里插入图片描述
我在这里也就不详细介绍XPath的语法了,介绍一些我们够用的就行,想了解自己去看API了:https://www.w3school.com.cn/xpath/index.asp

nodename选取此节点的所有子节点。
/从根节点选取。
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
.选取当前节点。
选取当前节点的父节点。
@选取属性。

至于语法当然可以不需要我们自己手动写,我们可以利用浏览器的工具,就哪CSND来举例子,我要获取左侧导航‘程序人生’这个标签的xpath路径

首先要利用浏览器的元素选择器,找到它的html位置
在这里插入图片描述
然后我们选择我们要的元素右击copy XPath,
在这里插入图片描述
然后我们粘贴下来://*[@id=“nav”]/div/div/ul/li[3]
这就是程序人生的XPath路径,然后我们就能根据这个来爬取它的这一整块的信息了,后面我的案例就是这样做的

爬取51job招聘信息

案例就直接上代码了,思路都大同小异,分析信息的页面、页码、元素等等,然后写代码

"""
爬取  51job 相关职位信息,并保存成cvs文件格式
"""
import requests
from lxml import etree
import csv
# csv后缀的格式就是excel文件打开的格式,我们等于是直接存入了excel中
import timeheaders = {"User-Agent": "Opera/9.80 (Windows NT 6.0) Presto/2.12.388 Version/12.14"
}f = open("java职位.cvs","w",newline="")
writer = csv.writer(f)
writer.writerow(['编号', '职位名称', '公司名称', '薪资', '地址', '发布时间'])i = 1;
for page in range(1,159):requests_get = requests.get(f"https://search.51job.com/list/020000,000000,0000,00,9,99,java,2,{page}.html?lang=c&stype=&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&providesalary=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare=",headers=headers)requests_get.encoding="gbk"if requests_get.status_code == 200:html = etree.HTML(requests_get.text)els = html.xpath("//div[@class='el']")[4:]for el in els:jobname = str(el.xpath("p[contains(@class,'t1')]/span/a/@title")).strip("[']")jobcom = str(el.xpath("span[@class='t2']/a/@titlr")).strip("[']")jobaddress = str(el.xpath("span[@class='t3']/text()")).strip("[']")jobsalary = str(el.xpath("span[@class='t4']/text()")).strip("[']")jobdate = str(el.xpath("span[@class='t5']/text()")).strip("[']")writer.writerow([i, jobname, jobcom, jobaddress, jobsalary, jobdate])i += 1print(f"第{page}页获取完毕")

最后存入excel中的样子
在这里插入图片描述
end…

这篇关于python爬虫之XPath(爬取51job招聘信息)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/618628

相关文章

Python中常用的四种取整方式分享

《Python中常用的四种取整方式分享》在数据处理和数值计算中,取整操作是非常常见的需求,Python提供了多种取整方式,本文为大家整理了四种常用的方法,希望对大家有所帮助... 目录引言向零取整(Truncate)向下取整(Floor)向上取整(Ceil)四舍五入(Round)四种取整方式的对比综合示例应

python 3.8 的anaconda下载方法

《python3.8的anaconda下载方法》本文详细介绍了如何下载和安装带有Python3.8的Anaconda发行版,包括Anaconda简介、下载步骤、安装指南以及验证安装结果,此外,还介... 目录python3.8 版本的 Anaconda 下载与安装指南一、Anaconda 简介二、下载 An

Python自动化处理手机验证码

《Python自动化处理手机验证码》手机验证码是一种常见的身份验证手段,广泛应用于用户注册、登录、交易确认等场景,下面我们来看看如何使用Python自动化处理手机验证码吧... 目录一、获取手机验证码1.1 通过短信接收验证码1.2 使用第三方短信接收服务1.3 使用ADB读取手机短信1.4 通过API获取

python安装whl包并解决依赖关系的实现

《python安装whl包并解决依赖关系的实现》本文主要介绍了python安装whl包并解决依赖关系的实现,文中通过图文示例介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 目录一、什么是whl文件?二、我们为什么需要使用whl文件来安装python库?三、我们应该去哪儿下

Python脚本实现图片文件批量命名

《Python脚本实现图片文件批量命名》这篇文章主要为大家详细介绍了一个用python第三方库pillow写的批量处理图片命名的脚本,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言源码批量处理图片尺寸脚本源码GUI界面源码打包成.exe可执行文件前言本文介绍一个用python第三方库pi

Python中多线程和多进程的基本用法详解

《Python中多线程和多进程的基本用法详解》这篇文章介绍了Python中多线程和多进程的相关知识,包括并发编程的优势,多线程和多进程的概念、适用场景、示例代码,线程池和进程池的使用,以及如何选择合适... 目录引言一、并发编程的主要优势二、python的多线程(Threading)1. 什么是多线程?2.

Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)

《Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)》本文介绍了如何使用Python和Selenium结合ddddocr库实现图片验证码的识别和点击功能,感兴趣的朋友一起看... 目录1.获取图片2.目标识别3.背景坐标识别3.1 ddddocr3.2 打码平台4.坐标点击5.图

Python自动化Office文档处理全攻略

《Python自动化Office文档处理全攻略》在日常办公中,处理Word、Excel和PDF等Office文档是再常见不过的任务,手动操作这些文档不仅耗时耗力,还容易出错,幸运的是,Python提供... 目录一、自动化处理Word文档1. 安装python-docx库2. 读取Word文档内容3. 修改

Python重命名文件并移动到对应文件夹

《Python重命名文件并移动到对应文件夹》在日常的文件管理和处理过程中,我们可能会遇到需要将文件整理到不同文件夹中的需求,下面我们就来看看如何使用Python实现重命名文件并移动到对应文件夹吧... 目录检查并删除空文件夹1. 基本需求2. 实现代码解析3. 代码解释4. 代码执行结果5. 总结方法补充在

Python自动化办公之合并多个Excel

《Python自动化办公之合并多个Excel》在日常的办公自动化工作中,尤其是处理大量数据时,合并多个Excel表格是一个常见且繁琐的任务,下面小编就来为大家介绍一下如何使用Python轻松实现合... 目录为什么选择 python 自动化目标使用 Python 合并多个 Excel 文件安装所需库示例代码