爬虫饿了么app心得!!!!(charles的unknow中的乱码)

2024-02-13 06:40

本文主要是介绍爬虫饿了么app心得!!!!(charles的unknow中的乱码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

ps:这是一篇小白贴,大神轻喷

------工具

 模拟器:夜神模拟器 

 抓包工具:charles

-------注意事项

饿了么app用的是https请求,是https,并且使用了ssl pinning技术,此技术是绑定证书,所以伪造的证书无法通过app的验证会拒绝请求,显示网络异常,所以需要绕过ssl pinning,此次用的绕过手段是使用xposed+justtrustme完成的,后面会介绍。

 ------准备工作

 1.安装夜神和charles,地址自行百度.....

 2.设置代理:

如图打开夜神的wlan设置,长按弹出wiredSSID的设置(得先连接wifi之后才行),显示高级选项前打钩。

如图,涂红的地方下上安装有charles的电脑的局域网ip,一定是同一个局域网内的那个ip,代理服务器端口写上8888,点击左上角的保存。这样一个代理就设置就完成了。

3.安装凭证

           pc端的凭证

 

如图所示,安装电脑上的CA证书,Help--->SSL Proxying---->Install(短的这一串是安装电脑上的证书的)。点击之后一直往后走知道出现左上角证书导入向导之后(下图),选择将所有证书都放入下列存储,选择受信任的根证书颁发机构。

一直到安装完成碰到的弹框都选是。

           手机端的凭证:(这里以夜神为例)

连上之前这只好的代理wifi(就是刚刚的wiredSSID),打开手机浏览器输入chls.pro/ssl等待跳框出来显示安装一个凭证。

安装完毕之后,证书的安装完成。

4.开放443端口检测。(这一步很重要!!!!!)

如图所示proxy---->SSL Proxying Setting,弹出框,点击add出现下面的界面,对照图中的hostport输入数据。

至此准备工作完成!!!!!

可以打开饿了么看看charles之前一直显示unknow的数据是不是已经不乱码了hiahiahiahia!!!!

-----代码主体,能拿到api地址了,自由发挥吧。。

这篇关于爬虫饿了么app心得!!!!(charles的unknow中的乱码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/704774

相关文章

vscode中文乱码问题,注释,终端,调试乱码一劳永逸版

忘记咋回事突然出现了乱码问题,很多方法都试了,注释乱码解决了,终端又乱码,调试窗口也乱码,最后经过本人不懈努力,终于全部解决了,现在分享给大家我的方法。 乱码的原因是各个地方用的编码格式不统一,所以把他们设成统一的utf8. 1.电脑的编码格式 开始-设置-时间和语言-语言和区域 管理语言设置-更改系统区域设置-勾选Bata版:使用utf8-确定-然后按指示重启 2.vscode

Python3 BeautifulSoup爬虫 POJ自动提交

POJ 提交代码采用Base64加密方式 import http.cookiejarimport loggingimport urllib.parseimport urllib.requestimport base64from bs4 import BeautifulSoupfrom submitcode import SubmitCodeclass SubmitPoj():de

Python:豆瓣电影商业数据分析-爬取全数据【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】

**爬取豆瓣电影信息,分析近年电影行业的发展情况** 本文是完整的数据分析展现,代码有完整版,包含豆瓣电影爬取的具体方式【附带爬虫豆瓣,数据处理过程,数据分析,可视化,以及完整PPT报告】   最近MBA在学习《商业数据分析》,大实训作业给了数据要进行数据分析,所以先拿豆瓣电影练练手,网络上爬取豆瓣电影TOP250较多,但对于豆瓣电影全数据的爬取教程很少,所以我自己做一版。 目

Golang 网络爬虫框架gocolly/colly(五)

gcocolly+goquery可以非常好地抓取HTML页面中的数据,但碰到页面是由Javascript动态生成时,用goquery就显得捉襟见肘了。解决方法有很多种: 一,最笨拙但有效的方法是字符串处理,go语言string底层对应字节数组,复制任何长度的字符串的开销都很低廉,搜索性能比较高; 二,利用正则表达式,要提取的数据往往有明显的特征,所以正则表达式写起来比较简单,不必非常严谨; 三,使

Golang网络爬虫框架gocolly/colly(四)

爬虫靠演技,表演得越像浏览器,抓取数据越容易,这是我多年爬虫经验的感悟。回顾下个人的爬虫经历,共分三个阶段:第一阶段,09年左右开始接触爬虫,那时由于项目需要,要访问各大国际社交网站,Facebook,myspace,filcker,youtube等等,国际上叫得上名字的社交网站都爬过,大部分网站提供restful api,有些功能没有api,就只能用http抓包工具分析协议,自己爬;国内的优酷、

Golang网络爬虫框架gocolly/colly(三)

熟悉了《Golang 网络爬虫框架gocolly/colly 一》和《Golang 网络爬虫框架gocolly/colly 二》之后就可以在网络上爬取大部分数据了。本文接下来将爬取中证指数有限公司提供的行业市盈率。(http://www.csindex.com.cn/zh-CN/downloads/industry-price-earnings-ratio) 定义数据结构体: type Zhj

014.Python爬虫系列_解析练习

我 的 个 人 主 页:👉👉 失心疯的个人主页 👈👈 入 门 教 程 推 荐 :👉👉 Python零基础入门教程合集 👈👈 虚 拟 环 境 搭 建 :👉👉 Python项目虚拟环境(超详细讲解) 👈👈 PyQt5 系 列 教 程:👉👉 Python GUI(PyQt5)文章合集 👈👈 Oracle数据库教程:👉👉 Oracle数据库文章合集 👈👈 优

MFC中App,Doc,MainFrame,View各指针的互相获取

纸上得来终觉浅,为了熟悉获取方法,我建了个SDI。 首先说明这四个类的执行顺序是App->Doc->Main->View 另外添加CDialog类获得各个指针的方法。 多文档的获取有点小区别,有时间也总结一下。 //  App void CSDIApp::OnApp() {      //  App      //  Doc     CDocument *pD

urllib与requests爬虫简介

urllib与requests爬虫简介 – 潘登同学的爬虫笔记 文章目录 urllib与requests爬虫简介 -- 潘登同学的爬虫笔记第一个爬虫程序 urllib的基本使用Request对象的使用urllib发送get请求实战-喜马拉雅网站 urllib发送post请求 动态页面获取数据请求 SSL证书验证伪装自己的爬虫-请求头 urllib的底层原理伪装自己的爬虫-设置代理爬虫coo

word转PDF后mathtype公式乱码以及图片分辨率降低等一系列问题|完美解决

word转PDF后mathtype公式乱码以及图片分辨率降低等一系列问题|完美解决 问题描述 最近在投一篇期刊论文,直接提交word文档,当时没有查看提交预览,一审审稿意见全是:公式乱码、公式乱码、乱码啊!!!是我大意了,第二次提交,我就决定将word文档转成PDF后再提交,避免再次出现公式乱码的问题。接着问题又来了,我利用‘文件/导出’或‘文件/另存为’的方式将word转成PDF后,发现公式