Python爬虫入门,抓取应届生求职网北京地区所有职位

本文主要是介绍Python爬虫入门,抓取应届生求职网北京地区所有职位,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

    我也是刚刚入门Python爬虫,写这个一方面给和我一样的初学者一个参考,另一方面也希望有高手可以给我指导,一个人学习总是有些无聊的。其实任何语言的学习,我觉得最好的方式就是实战,看过太多理论,也不如实际撸一遍代码来的痛快,所以我就不去一一介绍那些用到的库啊函数啊什么的,网上资料一找一大把,我主要讲一讲整个过程中的思路吧。

    今天我们要抓取的就是应届生求职网北京地区的所有职位(http://www.yingjiesheng.com/beijing-morejob-1.html),这是第一页的网址,从网址上就可以猜到后面的数字代表了工作的页数,所以很容易想到根据网址遍历所有的网页,抓取其中所有的职位。其实最后的大目标是要抓取所有的职位及其详细信息,我们先完成第一步,抓取所有的职位及其详细信息的链接。

    第一步,我们先看看能不能直接用urlopen函数下载网页,需不需要设置用户代理等等。

import urllib2
url='http://www.yingjiesheng.com/beijing-morejob-1.html'
print urllib2.urlopen(url).read()

结果如下图所示


真是喜忧参半啊,高兴的是该网页不需要设置任何用户代理就可以直接下载,不开森的是下载的网页里面中文部分变成了一些奇奇怪怪的东西,所以编码肯定有问题。从下载的网页的第5行我们可以看到charset='gbk',原来网页的编码是gbk,而Python默认的是utf-8,所以肯定有问题。这个时候就要用decode-encode大法了,修改代码为

url='http://www.yingjiesheng.com/beijing-morejob-1.html'
print urllib2.urlopen(url).read().decode('gbk','ignore').encode('utf-8')

结果如下图所示


好的,这下中文显示正常了,可以开始愉快地抓取网页内容了。查看网页源码如下


第二步是网页内容提取。我们发现所有的职位及其链接都在标签td下,class=item1类的a标签下,其中链接是href属性,职位名称是a的文字内容,所以可以利用BeautifulSoup非常方便地抓取目标内容。

from bs4 import BeautifulSoup
content=urllib2.urlopen(url).read().decode('gbk','ignore').encode('utf-8')
bs=BeautifulSoup(content,'html.parser')
res=bs.find_all("td",{"class":"item1"})
site=item.find('a').attrs['href'].encode('gbk','ignore')
job=item.find('a').text.encode('gbk','ignore')

不过需要注意的是,网页中给出的职位链接相当一部分是相对链接,这样的话后面想下载职位具体内容时就会不方便,所以需要加一个判断来补全相对链接。最后一步就是存储了,将所有结果写入一个csv文件即可,最后的整体代码如下所示

__author__='CD'
# -*- coding: utf-8 -*-import urllib2
from bs4 import BeautifulSoup
import csvurl="http://www.yingjiesheng.com/beijing-morejob-"
csvfile = file('links.csv', 'wb')
writer = csv.writer(csvfile)for i in xrange(1,356):url_total=url+str(i)+".html"print 'Now downloading page '+str(i)content=urllib2.urlopen(url_total).read().decode('gbk','ignore').encode('utf-8')bs=BeautifulSoup(content,'html.parser')res=bs.find_all("td",{"class":"item1"})for item in res:row=[]site=item.find('a').attrs['href'].encode('gbk','ignore')if "http" in site:row.append(site)else:site="http://yingjiesheng.com"+siterow.append(site)row.append(item.find('a').text.encode('gbk','ignore'))writer.writerow(row)

下载结果如下图所示


这样就完成了我们第一步的目标,爬取到了所有的职位及其链接,不过这个爬虫问题还是挺多的,主要以下几个

1 职位其实是在不停地更新的,用页数作为遍历的依据很可能导致爬取职位不全,用下一页的链接可以解决这个问题。

2 爬虫执行两次之后就被封ip了,所以有必要在爬取的时候也增加延迟或者使用多个代理ip。

    不过没有关系,接下来我们会进一步修改这个爬虫,直到它完成我们最终的目标。

注:代码仅供学习交流使用,如有错误请多指正。

PS:第一次发格式来来回回改了好几遍,为什么写的东西总自己进了代码里啊……

这篇关于Python爬虫入门,抓取应届生求职网北京地区所有职位的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/513562

相关文章

Python结合PyWebView库打造跨平台桌面应用

《Python结合PyWebView库打造跨平台桌面应用》随着Web技术的发展,将HTML/CSS/JavaScript与Python结合构建桌面应用成为可能,本文将系统讲解如何使用PyWebView... 目录一、技术原理与优势分析1.1 架构原理1.2 核心优势二、开发环境搭建2.1 安装依赖2.2 验

一文详解如何在Python中从字符串中提取部分内容

《一文详解如何在Python中从字符串中提取部分内容》:本文主要介绍如何在Python中从字符串中提取部分内容的相关资料,包括使用正则表达式、Pyparsing库、AST(抽象语法树)、字符串操作... 目录前言解决方案方法一:使用正则表达式方法二:使用 Pyparsing方法三:使用 AST方法四:使用字

Python列表去重的4种核心方法与实战指南详解

《Python列表去重的4种核心方法与实战指南详解》在Python开发中,处理列表数据时经常需要去除重复元素,本文将详细介绍4种最实用的列表去重方法,有需要的小伙伴可以根据自己的需要进行选择... 目录方法1:集合(set)去重法(最快速)方法2:顺序遍历法(保持顺序)方法3:副本删除法(原地修改)方法4:

Python运行中频繁出现Restart提示的解决办法

《Python运行中频繁出现Restart提示的解决办法》在编程的世界里,遇到各种奇怪的问题是家常便饭,但是,当你的Python程序在运行过程中频繁出现“Restart”提示时,这可能不仅仅是令人头疼... 目录问题描述代码示例无限循环递归调用内存泄漏解决方案1. 检查代码逻辑无限循环递归调用内存泄漏2.

Python中判断对象是否为空的方法

《Python中判断对象是否为空的方法》在Python开发中,判断对象是否为“空”是高频操作,但看似简单的需求却暗藏玄机,从None到空容器,从零值到自定义对象的“假值”状态,不同场景下的“空”需要精... 目录一、python中的“空”值体系二、精准判定方法对比三、常见误区解析四、进阶处理技巧五、性能优化

使用Python构建一个Hexo博客发布工具

《使用Python构建一个Hexo博客发布工具》虽然Hexo的命令行工具非常强大,但对于日常的博客撰写和发布过程,我总觉得缺少一个直观的图形界面来简化操作,下面我们就来看看如何使用Python构建一个... 目录引言Hexo博客系统简介设计需求技术选择代码实现主框架界面设计核心功能实现1. 发布文章2. 加

python logging模块详解及其日志定时清理方式

《pythonlogging模块详解及其日志定时清理方式》:本文主要介绍pythonlogging模块详解及其日志定时清理方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录python logging模块及日志定时清理1.创建logger对象2.logging.basicCo

Python如何自动生成环境依赖包requirements

《Python如何自动生成环境依赖包requirements》:本文主要介绍Python如何自动生成环境依赖包requirements问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑... 目录生成当前 python 环境 安装的所有依赖包1、命令2、常见问题只生成当前 项目 的所有依赖包1、

如何将Python彻底卸载的三种方法

《如何将Python彻底卸载的三种方法》通常我们在一些软件的使用上有碰壁,第一反应就是卸载重装,所以有小伙伴就问我Python怎么卸载才能彻底卸载干净,今天这篇文章,小编就来教大家如何彻底卸载Pyth... 目录软件卸载①方法:②方法:③方法:清理相关文件夹软件卸载①方法:首先,在安装python时,下

python uv包管理小结

《pythonuv包管理小结》uv是一个高性能的Python包管理工具,它不仅能够高效地处理包管理和依赖解析,还提供了对Python版本管理的支持,本文主要介绍了pythonuv包管理小结,具有一... 目录安装 uv使用 uv 管理 python 版本安装指定版本的 Python查看已安装的 Python