爬取研招网招考信息

2024-04-26 23:32
文章标签 信息 爬取 招考 研招网

本文主要是介绍爬取研招网招考信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

电子信息类考研科目

为了了解全国研究生院校电子系信息类专硕考察科目,特地开发一份爬虫程序将研招网的相关考试信息爬取下来,方便自己日后使用,也方便大家分析相关高校

文章目录

  • 电子信息类考研科目
    • 1.理清代码逻辑
    • 2.请求并提取所需数据
    • 3.MongoDB数据库存储数据
    • 4.使用server酱微信消息提醒
    • 5.代码分享

1.理清代码逻辑

找到全国所有省份的代号>>>找该省份所有的大学>>>找大学中所有电子信息相关专业>>>提取考察科目信息
(1)通过网页接受的数据包分析各省份的对应的代码如下图,为了避免麻烦,我最终还是选择了手刃咱们全国的省份~~,大家也可以直接对下图获取的的json包做处理
在这里插入图片描述(2)以搜索广东省的电子信息专业为例(如下图),数据并没有通过json包发送,而是院校的相对链接嵌在html代码中,于是得使用beatifulsoup去制作一锅汤~~,去寻找其中的珍品
在这里插入图片描述(3)选取一所高校一探究竟,这个上一步如此的相似,数据也没有单独发包,都是嵌入在html页面中,这还是得再去制作一锅汤,不过这回得检查“查看”元素的源代码
在这里插入图片描述(4)以院校的专业为例,进入页面查看相关考察科目,任然没有发现我需要的json包~~(大哥能不能体谅我们这种没怎么学html的同学),既然这样,那么咱们继续做汤呗
在这里插入图片描述(5)接下来就是咱们安装以及使用MongoDB数据库了(这是一个我没有玩过的全新版本~~),为了操作,我也下载了他的可视化软件
在这里插入图片描述

2.请求并提取所需数据

(1)爬取该省所有高校相对链接请求(如下图);对于爬虫程序,为了解决一些未知的错误,我选择try-except,这样不至于使程序因为一个小错误全程崩掉
在这里插入图片描述提取院校的相对链接;需要提取列表中所有的a标签的href属性
在这里插入图片描述(2)拼接成院校完整链接,请求数据
在这里插入图片描述提取院校专业的相对链接;
在这里插入图片描述(3)拼接链接,请求个专业考察科目
在这里插入图片描述
提取考察科目;

        for tr in html_text.find_all('tbody',class_="zsml-res-items"):#tr=tr.childrenif isinstance(tr,bs4.element.Tag):tds=tr('td')print("类型",type(tds[0]))tds[0]=str(tds[0]).replace("\r\n","")print("s类型",type(tds[0]))tds[0]=tds[0].replace(" ","")tds[1]=str(tds[1]).replace("\r\n","")tds[1]=tds[1].replace(" ", "")tds[2] = str(tds[2]).replace("\r\n","")tds[2] = tds[2].replace(" ","")tds[3] = str(tds[3]).replace("\r\n","")tds[3] = tds[3].replace(" ", "")con1 = Selector(text=tds[0])con2 = Selector(text=tds[1])con3 = Selector(text=tds[2])con4 = Selector(text=tds[3])#print(con1)test_subject_data.append([con1.xpath("//td/text()").extract(),con2.xpath("//td/text()").extract(),con3.xpath("//td/text()").extract(),con4.xpath("//td/text()").extract()])mydict={"univers":link_test_order[i][0],"course1":test_subject_data[i][0],"course2":test_subject_data[i][1],"course3":test_subject_data[i][2],"course4":test_subject_data[i][3]}x = mycol.insert_one(mydict)#print("test",test_subject_data)print("正在爬取%s考试科目"%(link_test_order[i][0]))

3.MongoDB数据库存储数据

(1)连接本地数据数据库,并创建数据表
在这里插入图片描述(2)向表中插入数据

mydict={"univers":link_test_order[i][0],"course1":test_subject_data[i][0],"course2":test_subject_data[i][1],"course3":test_subject_data[i][2],"course4":test_subject_data[i][3]}x = mycol.insert_one(mydict)

(3)爬取数据存储如下
在这里插入图片描述

4.使用server酱微信消息提醒

注册之后都会有key,原谅我打了马赛克,server酱注册地址
在这里插入图片描述

5.代码分享

import requests
import bs4
from bs4 import BeautifulSoup
from scrapy import Selector
import pymongo
import time
#连接数据库
myclient=pymongo.MongoClient("mongodb://localhost:27017/")
mydb=myclient["China"]
mycol=mydb["university"]
dblist=myclient.list_database_names()
code_university=[[11,"北京市"],[12,"天津市"],[13,"河北省"],[14,"山西省"],[15,"内蒙古自治区"],[21,"辽宁省"],[22,"吉林省"],[23,"黑龙江省"],[31,"上海市"],[32,"江苏省"],[33,"浙江省"],[34,"安徽省"],[35,"福建省"],[36,"江西省"],[37,"山东省"],[41,"河南省"],[42,"湖北省"],[43,"湖南省"],[44,"广东省"],[45,"广西壮族自治区"],[46,"海南省"],[50,"重庆市"],[51,"四川省"],[52,"贵州省"],[53,"云南省"],[54,"西藏自治区"],[61,"陕西省"],[62,"甘肃省"],[63,"青海省"],[64,"宁夏回族自治区"],[65,"新疆维吾尔族自治区"]]
chrome_info={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:71.0) Gecko/20100101 Firefox/71.0'}
#配置表单信息
form_data={'ssdm':'','dwmc':'','mldm':'zyxw','mlmc':'','yjxkdm':'0854','zymc':'电子信息','xxfs':''}
base_url='https://yz.chsi.com.cn'
#爬取该省所有研究生院校的数据
def get_Us_data(form_data1,i):try:#posthtml_data=requests.post('https://yz.chsi.com.cn/zsml/queryAction.do',headers=chrome_info,data=form_data1)print("正在爬取%s所有研究生院校链接"%code_university[i][1])except:print("请求高校数据出错")#提取该省所有高校链接地址count=0link=[]soup=BeautifulSoup(html_data.text,'html.parser')for tr in soup.find('tbody').children:if isinstance(tr,bs4.element.Tag):#判断是否为tr标签tds=tr('td')a=tds[0].form.a#定位到form标签下的a链接标签#print(a.text)link.append([a.get('href'),a.text])#该省院校的相对链接count+=1print(count)return link
def get_thisUniversity_data(link):# post表单信息data=[]#存储爬取的数据j=0link_test_order=[]#print("分割大学名称、序号中")for i in range(len(link)):try:lin=link[i][1].split(')')form_data1={'ssdm':form_data['ssdm'],'dwmc':lin[1],'mldm':form_data['mldm'],'mlmc':form_data['mlmc'],'yjxkdm':form_data['yjxkdm'],'xxfs':form_data['xxfs'],'zymc':form_data['zymc']}Url=base_url+link[i][0]html=requests.post(Url,headers=chrome_info,data=form_data1)html=BeautifulSoup(html.text,'html.parser')for tr in html.find('tbody').children:if isinstance(tr,bs4.element.Tag):tds=tr('td')data.append(['考试方式',tds[0].text])data.append(['院系', tds[1].text])data.append(['专业', tds[2].text])data.append(['研究方向',tds[3].text])data.append(['学习方式', tds[4].text])link_test_order.append([lin[1]+tds[1].text+tds[2].text,tds[7].a.get('href')])j+=1print("爬取%d所院校成功"%i)except:print("爬取%s数据失败",link[i][1])print("该省共%d个相关专业"%len(link_test_order))return link_test_order
#请求各院校各专业的考试信息数据
def get_test_order(link_test_order):test_subject_data=[]for i in range(len(link_test_order)):Url = base_url + link_test_order[i][1]html = requests.get(Url, headers=chrome_info)html_text=BeautifulSoup(html.text,'html.parser')for tr in html_text.find_all('tbody',class_="zsml-res-items"):#tr=tr.childrenif isinstance(tr,bs4.element.Tag):tds=tr('td')print("类型",type(tds[0]))tds[0]=str(tds[0]).replace("\r\n","")print("s类型",type(tds[0]))tds[0]=tds[0].replace(" ","")tds[1]=str(tds[1]).replace("\r\n","")tds[1]=tds[1].replace(" ", "")tds[2] = str(tds[2]).replace("\r\n","")tds[2] = tds[2].replace(" ","")tds[3] = str(tds[3]).replace("\r\n","")tds[3] = tds[3].replace(" ", "")con1 = Selector(text=tds[0])con2 = Selector(text=tds[1])con3 = Selector(text=tds[2])con4 = Selector(text=tds[3])#print(con1)test_subject_data.append([con1.xpath("//td/text()").extract(),con2.xpath("//td/text()").extract(),con3.xpath("//td/text()").extract(),con4.xpath("//td/text()").extract()])mydict={"univers":link_test_order[i][0],"course1":test_subject_data[i][0],"course2":test_subject_data[i][1],"course3":test_subject_data[i][2],"course4":test_subject_data[i][3]}x = mycol.insert_one(mydict)#print("test",test_subject_data)print("正在爬取%s考试科目"%(link_test_order[i][0]))
if __name__=="__main__":for i in range(len(code_university)):code=code_university[i][0]form_data['ssdm']=code#请求该省高校相对链接数据数据link=get_Us_data(form_data,i)#请求高校专业、方向数据link_test_order=get_thisUniversity_data(link)#爬取各专业具体考试科目get_test_order(link_test_order)time.sleep(5)url = "https://sc.ftqq.com/你们自己的key.send?text=爬取大学结束~"re = requests.get(url)#数据存储

这篇关于爬取研招网招考信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/938959

相关文章

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti

Linux命令(11):系统信息查看命令

系统 # uname -a # 查看内核/操作系统/CPU信息# head -n 1 /etc/issue # 查看操作系统版本# cat /proc/cpuinfo # 查看CPU信息# hostname # 查看计算机名# lspci -tv # 列出所有PCI设备# lsusb -tv

【小迪安全笔记 V2022 】信息打点9~11

第9天 信息打点-CDN绕过篇&漏洞回链8接口探针&全网扫指&反向件 知识点: 0、CDN知识-工作原理及阻碍 1、CDN配置-域名&区域&类型 2、CDN绕过-靠谱十余种技战法 3、CDN绑定-HOSTS绑定指向访问 CDN 是构建在数据网络上的一种分布式的内容分发网。 CDN的作用是采用流媒体服务器集群技术,克服单机系统输出带宽及并发能力不足的缺点,可极大提升系统支持的并发流数目,减少或避

Weex入门教程之4,获取当前全局环境变量和配置信息(屏幕高度、宽度等)

$getConfig() 获取当前全局环境变量和配置信息。 Returns: config (object): 配置对象;bundleUrl (string): bundle 的 url;debug (boolean): 是否是调试模式;env (object): 环境对象; weexVersion (string): Weex sdk 版本;appName (string): 应用名字;

Python批量读取身份证信息录入系统和重命名

前言 大家好, 如果你对自动化处理身份证图片感兴趣,可以尝试以下操作:从身份证图片中快速提取信息,填入表格并提交到网页系统。如果你无法完成这个任务,我们将在“Python自动化办公2.0”课程中详细讲解实现整个过程。 实现过程概述: 模块与功能: re 模块:用于从 OCR 识别出的文本中提取所需的信息。 日期模块:计算年龄。 pandas:处理和操作表格数据。 PaddleOCR:百度的

linux上查看java最耗时的线程信息

找到JAVA进程pid ps -ef|grep java或则jps -mlv 找进行下耗时的线程TID 使用top -Hp pid可以查看某个进程的线程信息 -H 显示线程信息,-p指定pid top -Hp 10906 查看最耗时的 TID即线程id printf "%x\n" [tid] 转成16进制 java中的线程类相关信息 jstack 线程ID 可以查看某个线程的堆栈情况,特别对于h

在糖尿病患者信息管理系统中,导入病人信息功能!

在糖尿病患者信息管理系统中,导入病人信息功能!form表单提交数据(Excel文件),在后台得不到file文件,解决方法:         private File filePath; //文件         private String fileName; //文件名         private String fileType; //文件类型 注:上面filePath必须有,否则下面

前缀和 — 利用前缀信息解决子数组问题

【前缀和的核心思想是预先处理数组来快速计算任意子数组的和,基本上用于数组和序列问题。】 前缀和算法具体步骤 构造前缀和数组: 给定一个数组nums,其前缀和数组prex定义为prex[i]表示为数组nums从起始位置到第i个位置的元素累加和。构建前缀和公式: p r e x [ i ] = n u m s [ i ] ( i = = 0 ) p r e x [ i ] = p r e x

0基础学习爬虫系列:网页内容爬取

1.背景 今天我们来实现,监控网站最新数据爬虫。 在信息爆炸的年代,能够有一个爬虫帮你,将你感兴趣的最新消息推送给你,能够帮你节约非常多时间,同时确保不会miss重要信息。 爬虫应用场景: 应用场景主要功能数据来源示例使用目的搜索引擎优化 (SEO)分析关键词密度、外部链接质量等网站元数据、链接提升网站在搜索引擎中的排名市场研究收集竞品信息、价格比较电商网站、行业报告制定更有效的市场策略舆情