猎聘爬虫(附源码)

2024-04-25 03:36
文章标签 源码 爬虫 猎聘

本文主要是介绍猎聘爬虫(附源码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

废话不多说直接附源码

cookies需要替换成自己的 , 该网站在不登录的情况下只能请求到10页数据 , 想要获得完整数据需要携带登录后的cookies

import requests
import json
from lxml import etree
import os
import openpyxlheaders = {"Accept": "application/json, text/plain, */*","Accept-Language": "zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6","Cache-Control": "no-cache","Connection": "keep-alive","Content-Type": "application/json;charset=UTF-8","Origin": "https://www.liepin.com","Pragma": "no-cache","Referer": "https://www.liepin.com/","Sec-Fetch-Dest": "empty","Sec-Fetch-Mode": "cors","Sec-Fetch-Site": "same-site","User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 Edg/122.0.0.0","X-Client-Type": "web","X-Fscp-Bi-Stat": "{\"location\": \"https://www.liepin.com/zhaopin/?inputFrom=head_navigation&scene=init&workYearCode=0&ckId=jrkiappybgyczm7c2sk5zmfzwgpqpqia\"}","X-Fscp-Fe-Version": "","X-Fscp-Std-Info": "{\"client_id\": \"40108\"}","X-Fscp-Trace-Id": "f22eb671-3c8f-4f94-8b14-e5e7d176be52","X-Fscp-Version": "1.1","X-Requested-With": "XMLHttpRequest","X-XSRF-TOKEN": "hCnGTNiJQfe47qu4x2OChA","sec-ch-ua": "\"Chromium\";v=\"122\", \"Not(A:Brand\";v=\"24\", \"Microsoft Edge\";v=\"122\"","sec-ch-ua-mobile": "?0","sec-ch-ua-platform": "\"Windows\""
}def spiderData():# 循环每一页for i in range(1, 21):# 配置账号参数cookies =  ''# 网页链接url = "https://api-c.liepin.com/api/com.liepin.searchfront4c.pc-search-job"# 参数data = {"data": {"mainSearchPcConditionForm": {"city": "410","dq": "410","pubTime": "","currentPage": f"{i}","pageSize": 40,"key": "","suggestTag": "","workYearCode": "0","compId": "","compName": "","compTag": "","industry": "H01$H01","salary": "","jobKind": 2,"compScale": "","compKind": "","compStage": "","eduLevel": ""},"passThroughForm": {"scene": "init","ckId": "0nbwaavz2gngc40f8xmfp59in6ymulua","skId": "pf8wezdo0ezilzl4tyd1g4tcoyh43qe9","fkId": "0nbwaavz2gngc40f8xmfp59in6ymulua","suggest": None}}}data = json.dumps(data, separators=(',', ':'))response = requests.post(url, headers=headers, cookies=cookies, data=data).json()print(f"正在爬取第{i + 1}页")praseData(response)# 这段代码主要用于解析和保存来自招聘网站的职位信息。下面是加上注释后的代码:
def praseData(data):for z in range(0,40):job_card_list = data.get('data', {}).get('data', {}).get('jobCardList', [])if 0 <= z < len(job_card_list):res_json_item = job_card_list[z]# 公司名称comp_name = res_json_item.get('comp', {}).get('compName')# 职位链接job_link = res_json_item.get('job', {}).get('link')# 工作地点place = res_json_item.get('job', {}).get('dq')# 薪资salary = res_json_item.get('job', {}).get('salary')# 职位名称job = res_json_item.get('job', {}).get('title')else:# 如果z不是有效索引或job_card_list为空,则处理错误或设置默认值comp_name = Nonejob_link = Noneplace = Nonesalary = Nonejob = None# 解析职位详情页面sub_data = requests.get(job_link, headers=headers).text# 使用 etree 解析 HTML 数据xml = etree.HTML(sub_data)# 尝试从详情页面中提取公司简介try:details = xml.xpath('//dl[@class="paragraph"]/dd/text()')[0]except:details = None# 公司简介companyProfile = xml.xpath("//div[@class='paragraph-box']/div/text()")company_profile = ','.join(companyProfile)# 公司信息try:intorduct = details.split('截止日期')[0].split()intorducts = ','.join(intorduct)except:intorducts = None# 保存到 excle 表格job_list = [job,place,salary,comp_name,company_profile,intorducts]print(job_list)save_data_to_xlsx(job_list)# 保存到excle表格
def save_data_to_xlsx(data ):filename = f'job.xlsx'name_headers = ['职位', '地点', '薪资', '公司名称', '公司简介','描述']if os.path.exists(filename):workbook = openpyxl.load_workbook(filename)sheet = workbook.activesheet.append(data)else:workbook = openpyxl.Workbook()sheet = workbook.active# 添加表头sheet.append(name_headers)sheet.append(data)# 保存 Excel 文件workbook.save(filename)if __name__ == '__main__':spiderData()

这篇关于猎聘爬虫(附源码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/933602

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

如何在Visual Studio中调试.NET源码

今天偶然在看别人代码时,发现在他的代码里使用了Any判断List<T>是否为空。 我一般的做法是先判断是否为null,再判断Count。 看了一下Count的源码如下: 1 [__DynamicallyInvokable]2 public int Count3 {4 [__DynamicallyInvokable]5 get

工厂ERP管理系统实现源码(JAVA)

工厂进销存管理系统是一个集采购管理、仓库管理、生产管理和销售管理于一体的综合解决方案。该系统旨在帮助企业优化流程、提高效率、降低成本,并实时掌握各环节的运营状况。 在采购管理方面,系统能够处理采购订单、供应商管理和采购入库等流程,确保采购过程的透明和高效。仓库管理方面,实现库存的精准管理,包括入库、出库、盘点等操作,确保库存数据的准确性和实时性。 生产管理模块则涵盖了生产计划制定、物料需求计划、

Spring 源码解读:自定义实现Bean定义的注册与解析

引言 在Spring框架中,Bean的注册与解析是整个依赖注入流程的核心步骤。通过Bean定义,Spring容器知道如何创建、配置和管理每个Bean实例。本篇文章将通过实现一个简化版的Bean定义注册与解析机制,帮助你理解Spring框架背后的设计逻辑。我们还将对比Spring中的BeanDefinition和BeanDefinitionRegistry,以全面掌握Bean注册和解析的核心原理。

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

音视频入门基础:WAV专题(10)——FFmpeg源码中计算WAV音频文件每个packet的pts、dts的实现

一、引言 从文章《音视频入门基础:WAV专题(6)——通过FFprobe显示WAV音频文件每个数据包的信息》中我们可以知道,通过FFprobe命令可以打印WAV音频文件每个packet(也称为数据包或多媒体包)的信息,这些信息包含该packet的pts、dts: 打印出来的“pts”实际是AVPacket结构体中的成员变量pts,是以AVStream->time_base为单位的显

kubelet组件的启动流程源码分析

概述 摘要: 本文将总结kubelet的作用以及原理,在有一定基础认识的前提下,通过阅读kubelet源码,对kubelet组件的启动流程进行分析。 正文 kubelet的作用 这里对kubelet的作用做一个简单总结。 节点管理 节点的注册 节点状态更新 容器管理(pod生命周期管理) 监听apiserver的容器事件 容器的创建、删除(CRI) 容器的网络的创建与删除

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

red5-server源码

red5-server源码:https://github.com/Red5/red5-server