python图书馆预约_利用Python爬虫抢座图书馆!

2023-11-06 06:00

本文主要是介绍python图书馆预约_利用Python爬虫抢座图书馆!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1202e5e3-dabd-4d35-b212-93a3e8c8a262

4096d384ba914e6fa1b9d01a77c2b022

login.PNG

下面给大家看一下,fiddler抓包的结果(提交的form信息和请求的头部信息):

71b0c0bc229e42caa47504249a3847ff

form.PNG

请求头:

0b375ba36e5a4e6fada6b3885da0c569

捕获2.PNG

接下来小编给大家解释下form中各个参数的含义:

1 TxtBox1 &TxtBox2 后面的内容是固定不变的(我也不知道后面的值是什么鬼)

2 ddDay 后面跟的参数是你想要预约的日期(“今日”或“明日”)

3 ddRoom 一共有7位数字(第一位表示校区,即:1----“东区”,“2”----“中区”,3----“西区”;第2-4位表示 预约教室的门牌号;后三位“001”是固定的)所以上图中“3207001”指代的就是西区图书馆207自习室;

4 txtSeats:是已预约的座位/空闲座位

小编在撸代码的时候,以为这个网站没有反爬措施,是我天真了,竟然还有反爬!所以,还是老规矩需要在请求的头部信息加上headers,伪装成浏览器才行。

import requests

import http.cookiejar

from bs4 import BeautifulSoup

import pytesseract

import time

cookies = {} #构建一个空字典用来存放cookies

headers={

'Connection': 'Keep-Alive',

'Accept-Language': 'zh-CN,zh;q=0.8',

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0',

'Accept-Encoding': 'gzip, deflate, sdch',

'Upgrade-Insecure-Requests':'1',

'Referer': 'http://172.16.47.84/',

'X-Requested-With': 'XMLHttpRequest',

'Host': '172.16.47.84',

}

def login(username, password, code):

url = 'http://172.16.47.84/'

form = {

'__VIEWSTATE': '/wEPDwUKMTM4MDI3NzI1MGRkScbX95yvCTaTc5BiKFlgoJSN0gi9TvPi4as2Sed98Ug=',

'__EVENTVALIDATION': '/wEWBQLYjc7zAwLs0bLrBgLs0fbZDALs0Yq1BQKM54rGBuOROfeko3/nasulQt/v8ihgd8TDoZ4pgdA4rtbVvanV',

'TextBox1': username,

'TextBox2': password,

'TextBox3': code,

'Button1': '登录',

}

resp = requests.post(url, headers=headers, data=form, cookies=cookies)

对了,这个网站也有验证码,而且还极为复杂,表示给用户带来了很不好的体验,用pytesseract识别的时候,成功率几乎为0.在下感觉这个开发者脑子里有坑,作为一个人类的我,倾斜过后的0和o,还有g和数字9 都不分清楚,更不要讲机器了。下面是验证码的处理:

def get_code():

url = 'http://172.16.47.84/VerifyCode.aspx?'

resp = requests.get(url, headers=headers)

cookies['ASP.NET_SessionId'] = resp.cookies.get('ASP.NET_SessionId')

with open('code.jpg', 'wb') as img:

img.write(resp.content)

def check_show():

checkcode = Image.open("code.jpg")

image = Image.open('code.jpg')

imgry = image.convert('L')

imgry.show()

成功登陆后就是选座了:

def cchose_seat():

try:

churl = "http://172.16.47.84/DayNavigation.aspx"

churl_1 = "http://172.16.47.84/AppSTod.aspx?roomid=3207&hei=834&wd=1920"

responce = requests.get(url)

form_1 = {

'__VIEWSTATE':'/wEPDwUJMTAxMjgzNTc0D2QWAgIDD2QWBgIFDxBkZBYBZmQCBw8QDxYGHg5EYXRhVmFsdWVGaWVsZAUGc2VhdGlkHg1EYXRhVGV4dEZpZWxkBQhsb2NhdGlvbh4LXyFEYXRhQm91bmRnZBAVCB7kuJzljLrlm77kuabppoboh6rkuaDlrqQ0MDHlrqQe5Lit5Yy65Zu+5Lmm6aaG6Ieq5Lmg5a6kMTAx5a6kHuS4reWMuuWbvuS5pummhuiHquS5oOWupDIwMeWupB7kuK3ljLrlm77kuabppoboh6rkuaDlrqQyMDblrqQe5Lit5Yy65Zu+5Lmm6aaG6Ieq5Lmg5a6kMjEx5a6kHuilv+WMuuWbvuS5pummhuiHquS5oOWupDIwN+WupB7opb/ljLrlm77kuabppoboh6rkuaDlrqQ0MDHlrqQe6KW/5Yy65Zu+5Lmm6aaG6Ieq5Lmg5a6kNDA45a6kFQgHMTQwMTAwMQcyMTAxMDAxBzIyMDEwMDEHMjIwNjAwMQcyMjExMDAxBzMyMDcwMDEHMzQwMTAwMQczNDA4MDAxFCsDCGdnZ2dnZ2dnFgECBWQCCQ8PFgIeBFRleHQFBjc4LzI0NGRkZIJLRlSaEzl+hXYbMzsabmNO5M8kN4OxvGABm9Fy2LY8',

'__EVENTVALIDATION':"/wEWEwL72v/5BALs0bLrBgLs0fbZDAKPwd2MAQLpu8rPDwKt6srPDwLytq6nDwK6p5TSCwKVpujRCwKVpuzQCwKVpvCRCAKetsSdCgL0p+TRCAL0p5TSCwL0p8CRDwL9h9mtDgKM54rGBgK7q7GGCALWlM+bAudkkeCZYjIbgxcot/UJfplpDini+B9RpiIThosUANI+",

'TextBox1':"883",

'TextBox2':"1920",

"ddlDay":"明日",

'ddlRoom':"3207001",

"txtSeats":"",

"Button1":"手动选座",

}

resp_1 = requests.post(churl, headers=headers, data=form_1, cookies=cookies)

except:

print("####---------登陆失败--------#######")

###提交预约座位

def chseat():

churl = "http://172.16.47.84/AppSTod.aspx?roomid=3207&hei=834&wd=1920"

churl_1= "http://172.16.47.84/Skip.aspx?seatid=3207128"

from_2 = {

'roomid' :'3207',

'hei' :'883',

'wd' :'1920',

}

from_3 = {

'seatid':'3207128',

}

for i in range(0,2):

resp_2 = requests.post(churl,headers = headers,data = from_2,cookies = cookies)

resp_3 = requests.post(churl_1,headers = headers,data = from_3,cookies = cookies)

soup = BeautifulSoup(resp_3.content,'lxml')

Soup = soup.find_all("script")

if Soup:

print(Soup[0])

else:

print("正在抢座")

for i in range(0,50):

time.sleep(1) #为防止服务器瘫痪,请求50次,这个大家可以根据需要,自行改动

resp_2 = requests.post(churl,headers = headers,data = from_2,cookies = cookies)

resp_3 = requests.post(churl_1,headers = headers,data = from_3,cookies = cookies)

检测是否成功抢座,是根据预约成功后弹出一个页面,告诉“你已经成功预约”, 而这句话是存在于

给大家看下结果:

f9e34f6a86b148869c22889fab3fe827

运行结果.PNG

登陆网站验证:

540e02babb7d4f44bf8a328140b038a8

验证结果.PNG

小编还在成长,希望大家多多指教。

这篇关于python图书馆预约_利用Python爬虫抢座图书馆!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/354863

相关文章

使用Python合并 Excel单元格指定行列或单元格范围

《使用Python合并Excel单元格指定行列或单元格范围》合并Excel单元格是Excel数据处理和表格设计中的一项常用操作,本文将介绍如何通过Python合并Excel中的指定行列或单... 目录python Excel库安装Python合并Excel 中的指定行Python合并Excel 中的指定列P

一文详解Python中数据清洗与处理的常用方法

《一文详解Python中数据清洗与处理的常用方法》在数据处理与分析过程中,缺失值、重复值、异常值等问题是常见的挑战,本文总结了多种数据清洗与处理方法,文中的示例代码简洁易懂,有需要的小伙伴可以参考下... 目录缺失值处理重复值处理异常值处理数据类型转换文本清洗数据分组统计数据分箱数据标准化在数据处理与分析过

Python调用另一个py文件并传递参数常见的方法及其应用场景

《Python调用另一个py文件并传递参数常见的方法及其应用场景》:本文主要介绍在Python中调用另一个py文件并传递参数的几种常见方法,包括使用import语句、exec函数、subproce... 目录前言1. 使用import语句1.1 基本用法1.2 导入特定函数1.3 处理文件路径2. 使用ex

Python脚本实现自动删除C盘临时文件夹

《Python脚本实现自动删除C盘临时文件夹》在日常使用电脑的过程中,临时文件夹往往会积累大量的无用数据,占用宝贵的磁盘空间,下面我们就来看看Python如何通过脚本实现自动删除C盘临时文件夹吧... 目录一、准备工作二、python脚本编写三、脚本解析四、运行脚本五、案例演示六、注意事项七、总结在日常使用

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Python进阶之Excel基本操作介绍

《Python进阶之Excel基本操作介绍》在现实中,很多工作都需要与数据打交道,Excel作为常用的数据处理工具,一直备受人们的青睐,本文主要为大家介绍了一些Python中Excel的基本操作,希望... 目录概述写入使用 xlwt使用 XlsxWriter读取修改概述在现实中,很多工作都需要与数据打交

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

利用Python编写一个简单的聊天机器人

《利用Python编写一个简单的聊天机器人》这篇文章主要为大家详细介绍了如何利用Python编写一个简单的聊天机器人,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 使用 python 编写一个简单的聊天机器人可以从最基础的逻辑开始,然后逐步加入更复杂的功能。这里我们将先实现一个简单的