破解selenium封禁--去哪儿酒店爬虫

2023-10-29 11:10

本文主要是介绍破解selenium封禁--去哪儿酒店爬虫,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用selenium遇到封禁

  • selenium是我用来破解一些js渲染比较多的页面的神器。但是最近,在抓取一些网站时,遇到了让人头皮发麻的事情,selenium出问题了,在测试去哪儿酒店时,遇到了加载不出数据的问题(如下图)
    数据一直刷在这里插入图片描述
  • 去哪儿会一直很努力的刷新数据,其实不然,它想必是已经发现了爬虫的真实身份,即使是使用Selenium调用ChromeDriver来打开网页,其还是与正常打开网页有区别的,有被识别的可能性。selenium在运行的时候会暴露出一些预定义的Javascript变量(特征字符串),例如"window.navigator.webdriver",在非selenium环境下其值为undefined,而在selenium环境下,其值为true(这段是在百度上借鉴的,我觉得自己的语言组织不好)。
  • 在用selenium时还会产生一些标识符webdriver, __driver_evaluate, __webdriver_evaluate, __selenium_evaluate, __fxdriver_evaluate, __driver_unwrapped, __webdriver_unwrapped, __selenium_unwrapped __fxdriver_unwrapped ,_Selenium_IDE_Recorder _selenium还有很多就不一一列举了。反爬就是通过这些标识符识别出爬虫,然后通过js给webdriver请求响应错误信息,那么让这个js go die,就是破解的方法。

破解selenium封禁

  • 通过baidu,google各种搜索,我找到了一种非常优秀的方法,那就是通过 mitmproxy 屏蔽掉识别 webdriver 标识符的 js 文件。
  • 我遇到的坑给大家也写上,尽量让大家少走弯路。首先要下载mitmproxy,可以用pip install mitmproy,如果报错的话,‘https://mitmproxy.org/’ 这个网站也可以下载。然后给本机设置代理ip 127.0.0.1端口8001(为了让所有流量走mitmproxy)。之后启动mitmproxy。
mitmdump -p 8001 # windows启动
mitmproxy -p 8001 # linux启动
  • 这个时候我遇到了问题,在输入网址后,出现了这个界面。*
    在这里插入图片描述
    这应该是证书的问题,在下载mitmproxy时,会产生一个.mitmproxy包
    在这里插入图片描述
    打开这个p12,一直下一步。直到如下图时,选择第二个(即受信任的根证书颁发机构),然后就完成了。
    在这里插入图片描述
    这个时候装备已经齐全了,是时候去打boss了
    我打开去哪儿酒店的页面,‘https://hotel.qunar.com/city/shanghai_city/#fromDate=2019-06-03&cityurl=shanghai_city&toDate=2019-06-04&from=qunarHotel’,使用chrome的开发者工具,找到目标网站是通过哪个js文件控制webdriver相应的(全局搜索特征标识符吧),我找到了如下js文件
    在这里插入图片描述
    在这一大串js中我还发现了,一串貌似是封禁指定词的js
    在这里插入图片描述
    冲锋的号角已经吹响,这个时候就是我们反击的时候,我开始写干扰脚本了 (DriverPass.py)。代码如下
import re
from mitmproxy import ctxdef response(flow):if '/js/index.' in flow.request.url:for webdriver_key in ['webdriver', '__driver_evaluate', '__webdriver_evaluate',"__webdriver_script_function","__webdriver_script_func", '__selenium_evaluate', '__fxdriver_evaluate', '__driver_unwrapped', '__webdriver_unwrapped', '__selenium_unwrapped', '__fxdriver_unwrapped', '_Selenium_IDE_Recorder',"__nightmare", '_selenium', 'calledSelenium',"callSelenium", '_WEBDRIVER_ELEM_CACHE', 'ChromeDriverw', 'driver-evaluate', 'webdriver-evaluate', 'selenium-evaluate', 'webdriverCommand', 'webdriver-evaluate-response', '__webdriverFunc', '__webdriver_script_fn', '__$webdriverAsyncExecutor', '__lastWatirAlert', '__lastWatirConfirm', '__lastWatirPrompt', '$chrome_asyncScriptInfo', '$cdc_asdjflasutopfhvcZLmcfl_' ]:ctx.log.info('Remove "{}" from {}.'.format(webdriver_key, flow.request.url))flow.response.text = flow.response.text.replace('"{}"'.format(webdriver_key), '"NO-SUCH-ATTR"')flow.response.text = flow.response.text.replace('t.webdriver', 'false')# flow.response.text = flow.response.text.replace('driver', '')flow.response.text = flow.response.text.replace('selenium', 'false')

去哪儿之类的大厂变幻莫测,js要看一看对代码酌情修改,这时退出刚才的mitmproxy接口,使用下面的命令重新打开

mitmdump -s DriverPass.py -p 8001

此时,再使用selenium打开去哪儿就可以加载出数据了。如果有问题,欢迎指点,共同进步。

这篇关于破解selenium封禁--去哪儿酒店爬虫的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/300247

相关文章

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

Golang 网络爬虫框架gocolly/colly(五)

gcocolly+goquery可以非常好地抓取HTML页面中的数据,但碰到页面是由Javascript动态生成时,用goquery就显得捉襟见肘了。解决方法有很多种: 一,最笨拙但有效的方法是字符串处理,go语言string底层对应字节数组,复制任何长度的字符串的开销都很低廉,搜索性能比较高; 二,利用正则表达式,要提取的数据往往有明显的特征,所以正则表达式写起来比较简单,不必非常严谨; 三,使

Golang网络爬虫框架gocolly/colly(四)

爬虫靠演技,表演得越像浏览器,抓取数据越容易,这是我多年爬虫经验的感悟。回顾下个人的爬虫经历,共分三个阶段:第一阶段,09年左右开始接触爬虫,那时由于项目需要,要访问各大国际社交网站,Facebook,myspace,filcker,youtube等等,国际上叫得上名字的社交网站都爬过,大部分网站提供restful api,有些功能没有api,就只能用http抓包工具分析协议,自己爬;国内的优酷、

Golang网络爬虫框架gocolly/colly(三)

熟悉了《Golang 网络爬虫框架gocolly/colly 一》和《Golang 网络爬虫框架gocolly/colly 二》之后就可以在网络上爬取大部分数据了。本文接下来将爬取中证指数有限公司提供的行业市盈率。(http://www.csindex.com.cn/zh-CN/downloads/industry-price-earnings-ratio) 定义数据结构体: type Zhj

014.Python爬虫系列_解析练习

我 的 个 人 主 页:👉👉 失心疯的个人主页 👈👈 入 门 教 程 推 荐 :👉👉 Python零基础入门教程合集 👈👈 虚 拟 环 境 搭 建 :👉👉 Python项目虚拟环境(超详细讲解) 👈👈 PyQt5 系 列 教 程:👉👉 Python GUI(PyQt5)文章合集 👈👈 Oracle数据库教程:👉👉 Oracle数据库文章合集 👈👈 优

urllib与requests爬虫简介

urllib与requests爬虫简介 – 潘登同学的爬虫笔记 文章目录 urllib与requests爬虫简介 -- 潘登同学的爬虫笔记第一个爬虫程序 urllib的基本使用Request对象的使用urllib发送get请求实战-喜马拉雅网站 urllib发送post请求 动态页面获取数据请求 SSL证书验证伪装自己的爬虫-请求头 urllib的底层原理伪装自己的爬虫-设置代理爬虫coo

如何使用Selenium捕获控制台日志

Selenium是一个流行的开源工具,用于自动化Web浏览器。其中一个关键功能是能够与浏览器的开发者控制台交互。本文将向您展示如何在Selenium中使用Java获取控制台日志。这些日志对于调试和解决Selenium脚本的问题非常有用。 如何查看任何网页的控制台日志 首先,打开浏览器的开发者控制台。在大多数浏览器中,您可以通过右键点击页面并选择“检查”来做到这一点。我们将在我们的测试网站——h

Python 爬虫入门 - 基础数据采集

Python网络爬虫是一种强大且灵活的工具,用于从互联网上自动化地获取和处理数据。无论你是数据科学家、市场分析师,还是一个想要深入了解互联网数据的开发者,掌握网络爬虫技术都将为你打开一扇通向丰富数据资源的大门。 在本教程中,我们将从基本概念入手,逐步深入了解如何构建和优化网络爬虫,涵盖从发送请求、解析网页结构到保存数据的全过程,并讨论如何应对常见的反爬虫机制。通过本教程,你将能够构建有效的网络爬

0基础学习爬虫系列:网页内容爬取

1.背景 今天我们来实现,监控网站最新数据爬虫。 在信息爆炸的年代,能够有一个爬虫帮你,将你感兴趣的最新消息推送给你,能够帮你节约非常多时间,同时确保不会miss重要信息。 爬虫应用场景: 应用场景主要功能数据来源示例使用目的搜索引擎优化 (SEO)分析关键词密度、外部链接质量等网站元数据、链接提升网站在搜索引擎中的排名市场研究收集竞品信息、价格比较电商网站、行业报告制定更有效的市场策略舆情