Python网络爬虫(一):爬取51job前程无忧网数据并保存至MongoDB数据库

本文主要是介绍Python网络爬虫(一):爬取51job前程无忧网数据并保存至MongoDB数据库,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Python网络爬虫(一):爬取51job前程无忧网数据并保存至MongoDB数据库

前言

参考博客: link.Python爬虫(7):多进程抓取拉钩网十万数据:
版本:Python3.7
编辑器:PyCharm
数据库:MongoDB

整体思路:

1.网页解析,查找所需信息的位置
2.开始网页爬取
3.爬取结果存入MongoDB数据库

爬虫

1.网页解析

打开网页后发现共有四大类求职岗位,分别是:互联网/电子商务、金融/投资/证券、汽车及零配件、房地产。打开开发者工具,查看四大类求职岗位的地址。
互联/电子商务类求职岗位
如:进入“互联网/电子商务”该类,对具体岗位信息进行查找。以当时网页第一个职位—“大客户销售”为例,可以发现我们所需的信息即职位、公司、所在地、薪水、发布日期。
在这里插入图片描述前期准备工作完成,下面就开始爬虫了。

2.网页爬取

整个爬虫项目分为四个部分:主程序、MongoDB信息配置、网页索引、职位爬取与保存

1).主程序

# -*- coding:utf-8 -*-
import time
from multiprocessing import Pool
from job_spider import parse_link
from job_indexspider import parse_indexdef main(data):url = data['url']print(url)mongo_table = data['name']if mongo_table[0] == '.':mongo_table = mongo_table[1:]parse_link(url, mongo_table)if __name__ == '__main__':t1 = time.time()pool = Pool(processes=4)datas = (data for data in parse_index())pool.map(main, datas)pool.close()pool.join()print(time.time() - t1)

2).MongoDB信息配置

# 配置数据库信息
MONGO_URL = 'localhost' # 数据库地址
MONGO_DB = '51job'      # 数据库名称

3).网页索引

通过四大类:互联网/电子商务、金融/投

这篇关于Python网络爬虫(一):爬取51job前程无忧网数据并保存至MongoDB数据库的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/388382

相关文章

Java中注解与元数据示例详解

《Java中注解与元数据示例详解》Java注解和元数据是编程中重要的概念,用于描述程序元素的属性和用途,:本文主要介绍Java中注解与元数据的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参... 目录一、引言二、元数据的概念2.1 定义2.2 作用三、Java 注解的基础3.1 注解的定义3.2 内

vscode保存代码时自动eslint格式化图文教程

《vscode保存代码时自动eslint格式化图文教程》:本文主要介绍vscode保存代码时自动eslint格式化的相关资料,包括打开设置文件并复制特定内容,文中通过代码介绍的非常详细,需要的朋友... 目录1、点击设置2、选择远程--->点击右上角打开设置3、会弹出settings.json文件,将以下内

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据

C++中使用vector存储并遍历数据的基本步骤

《C++中使用vector存储并遍历数据的基本步骤》C++标准模板库(STL)提供了多种容器类型,包括顺序容器、关联容器、无序关联容器和容器适配器,每种容器都有其特定的用途和特性,:本文主要介绍C... 目录(1)容器及简要描述‌php顺序容器‌‌关联容器‌‌无序关联容器‌(基于哈希表):‌容器适配器‌:(

Python判断for循环最后一次的6种方法

《Python判断for循环最后一次的6种方法》在Python中,通常我们不会直接判断for循环是否正在执行最后一次迭代,因为Python的for循环是基于可迭代对象的,它不知道也不关心迭代的内部状态... 目录1.使用enuhttp://www.chinasem.cnmerate()和len()来判断for

C#提取PDF表单数据的实现流程

《C#提取PDF表单数据的实现流程》PDF表单是一种常见的数据收集工具,广泛应用于调查问卷、业务合同等场景,凭借出色的跨平台兼容性和标准化特点,PDF表单在各行各业中得到了广泛应用,本文将探讨如何使用... 目录引言使用工具C# 提取多个PDF表单域的数据C# 提取特定PDF表单域的数据引言PDF表单是一

使用Python实现高效的端口扫描器

《使用Python实现高效的端口扫描器》在网络安全领域,端口扫描是一项基本而重要的技能,通过端口扫描,可以发现目标主机上开放的服务和端口,这对于安全评估、渗透测试等有着不可忽视的作用,本文将介绍如何使... 目录1. 端口扫描的基本原理2. 使用python实现端口扫描2.1 安装必要的库2.2 编写端口扫

使用Python实现操作mongodb详解

《使用Python实现操作mongodb详解》这篇文章主要为大家详细介绍了使用Python实现操作mongodb的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、示例二、常用指令三、遇到的问题一、示例from pymongo import MongoClientf

使用Python合并 Excel单元格指定行列或单元格范围

《使用Python合并Excel单元格指定行列或单元格范围》合并Excel单元格是Excel数据处理和表格设计中的一项常用操作,本文将介绍如何通过Python合并Excel中的指定行列或单... 目录python Excel库安装Python合并Excel 中的指定行Python合并Excel 中的指定列P

一文详解Python中数据清洗与处理的常用方法

《一文详解Python中数据清洗与处理的常用方法》在数据处理与分析过程中,缺失值、重复值、异常值等问题是常见的挑战,本文总结了多种数据清洗与处理方法,文中的示例代码简洁易懂,有需要的小伙伴可以参考下... 目录缺失值处理重复值处理异常值处理数据类型转换文本清洗数据分组统计数据分箱数据标准化在数据处理与分析过