广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据

本文主要是介绍广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

一、背景

在平常爬取过程中会遇到很多结构不同和渲染方式不同的网站,比如这次的宝筹贷,它的列表页渲染方式和详情页的渲染方式是不一致的,详情页和投资记录的数据渲染方式则一致。遇到这样的数据,通常的应对方法有两种:

1.scrapy直接请求接口地址即可,模拟登录或者甚至不用登录,像爬取乐助贷、够力金融、汇泰在线这些平台一样,直接从接口拿数据就行了。

2.scrapy结合selenium进行爬取,这个就有意思了。

二、目的

通过工具的结合,对平台的数据进行抓取,只写逻辑,具体详细的入库操作就不仔细记录了。

三、条件

1.列表页渲染方式是html/css

2.详情页和投资记录页是通过Ajax和api进行通信的

3.投资记录的接口请求跟够力金融的类似,都是需要接口翻页(我就不重复写了)

四、工具

1.scrapy爬虫框架

2.selenium自动化测试工具

五、示例

代码逻辑:

1.在middleware里面将scrapy和selenium进行结合

2.在spider中重载方法,做到开启爬虫时自动调用浏览器,在爬虫退出后自动关闭浏览器

3.到列表页进行url的抽取,交给parse_detail进行详细的爬取

4.parse_detail进行详细数据爬取,并且交给item进行序列化

以下是spider里面的代码:


class BaochouSpider(scrapy.Spider):name = 'baochou'allowed_domains = ['www.baochoudai.com']start_urls = ['https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=lists&t=1']def __init__(self):"""通过chrome请求动态网页当爬虫关闭的时候  自动关闭浏览器窗口"""# 设置chromediver不加载图片chrome_opt = webdriver.ChromeOptions()  # 初始化配置ChromeOptionsprefs = {"profile.managed_default_content_settings.images": 2}  # 开关  这是固定写法chrome_opt.add_experimental_option("prefs", prefs)  # 配置进来self.browser = webdriver.Chrome(executable_path="E:/SpiderTools/chromedriver.exe",chrome_options=chrome_opt)super(BaochouSpider, self).__init__()# 当收到spider_closed信号的时候,调用下面的spider_colosed方法来关闭浏览器dispatcher.connect(self.spider_closed, signals.spider_closed)def spider_closed(self, spider):# 当爬虫退出的时候关闭chromeself.browser.quit()def parse(self, response):"""将当前列表页的每条标的链接拿到并传给detail进行深入爬取已知页码可以在url中循环  就不用翻页了"""total = response.css('h4.inline-block.mb15.fs22 a')for x in total:target_urls = x.css('::attr(href)').extract_first("")yield Request(url=parse.urljoin(response.url,target_urls),callback=self.parse_detail)for i in range(1,22):next_pages = "https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=lists&t=1&page=%s" %(i)yield Request(url=next_pages,callback=self.parse)def parse_detail(self, response):loaders = BaochouItemLoader(item=BaochouItem(),response=response)loaders.add_css("title", ".inline-block.pr20 span::text")loaders.add_css("protype", ".inline-block.pr20 span::text")loaders.add_css("amount", ".fl.w280.pt15 span.fs46.lh1::text")loaders.add_css("profit", ".fl.w220.pt15 span.fs46.lh1::text")loaders.add_css("terms", "div.pl30:nth-child(3) div:first-child span:first-child::text")loaders.add_value("target_urls", response.url)loaders.add_value("target_urls_id", response.url)iloaders_item = loaders.load_item()yield iloaders_item

middleware里面结合selenium的代码就不记录了。

六、总结

全程通过浏览器进行自动化爬取,写完代码运行即可

由于调用浏览器比较费时费力,所以在调用的时候禁止浏览器加载图片,速度加快一倍

其实这种加载浏览器的方式速度会变慢,实在不得已而为止的情况下再考虑用(比如某些网站限制爬虫访问,那么就要用到这种方式)

相对于直接请求接口api,这种方式得到的数据并没有那么齐全,如果是请求api也是可以拿到Userid的,对用户行为、偏好、投资能力等进行分析和推算。比如宝筹贷这个平台的投资人属性有以下几种:

1.很多投资人都是只投100元

2.投资终端最多的就是微信

3.可以根据api中投资人的手机号码计算投资人归属地

4.得到完整数据后计算投资总额top10/投资次数Top10

5.投资人单笔投资金额普遍是1000以内,超过1000的不多

七、部分数据展示

以下是宝筹贷的部分数据展示 包括(id 标题、金额、收益率、期限、对应地址、唯一id、来源、类型)等

'2131', '2017101703保汇贷03号', '500000', '10', '4.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20171000003', '4b5f66f1445bcb6558515a85d5ba2c50', NULL, '宝筹贷', '14''2132', '2017101102保汇贷02号', '600000', '9.8', '3.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20171000002', '4efd8370abcd9622df51c9f6a9fa674f', NULL, '宝筹贷', '14''2133', '20150731房产抵押借款项目第03号', '900000', '15', '1.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150700022', '700acd1785848a3072b484c0710251e0', NULL, '宝筹贷', '2''2134', '20150728房产抵押借款项目第01-22号', '20000', '18', '0.3333333333333333', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150700020', '3a2b77053c9518f02b579cff977e2e6e', NULL, '宝筹贷', '2''2135', '20150812房产抵押04-1号', '20000', '20', '0.5', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800002', '3306ed018df098febcf08b55bd9a21f1', NULL, '宝筹贷', '2''2136', '20150807银行过桥项目第01号', '380000', '15', '0.3333333333333333', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800001', '821d818039a38a0ec8f0c3e7b0fa9373', NULL, '宝筹贷', '14''2137', '20150818房产抵押04-2号', '20000', '20', '0.5', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800003', '32217f70fbb8af31a234e5d4dc12f46c', NULL, '宝筹贷', '2'

转载于:https://my.oschina.net/RanboSpider/blog/1605694

这篇关于广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/761398

相关文章

SpringBoot使用GZIP压缩反回数据问题

《SpringBoot使用GZIP压缩反回数据问题》:本文主要介绍SpringBoot使用GZIP压缩反回数据问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录SpringBoot使用GZIP压缩反回数据1、初识gzip2、gzip是什么,可以干什么?3、Spr

Python结合PyWebView库打造跨平台桌面应用

《Python结合PyWebView库打造跨平台桌面应用》随着Web技术的发展,将HTML/CSS/JavaScript与Python结合构建桌面应用成为可能,本文将系统讲解如何使用PyWebView... 目录一、技术原理与优势分析1.1 架构原理1.2 核心优势二、开发环境搭建2.1 安装依赖2.2 验

SpringBoot集成Milvus实现数据增删改查功能

《SpringBoot集成Milvus实现数据增删改查功能》milvus支持的语言比较多,支持python,Java,Go,node等开发语言,本文主要介绍如何使用Java语言,采用springboo... 目录1、Milvus基本概念2、添加maven依赖3、配置yml文件4、创建MilvusClient

深入理解Apache Kafka(分布式流处理平台)

《深入理解ApacheKafka(分布式流处理平台)》ApacheKafka作为现代分布式系统中的核心中间件,为构建高吞吐量、低延迟的数据管道提供了强大支持,本文将深入探讨Kafka的核心概念、架构... 目录引言一、Apache Kafka概述1.1 什么是Kafka?1.2 Kafka的核心概念二、Ka

SpringValidation数据校验之约束注解与分组校验方式

《SpringValidation数据校验之约束注解与分组校验方式》本文将深入探讨SpringValidation的核心功能,帮助开发者掌握约束注解的使用技巧和分组校验的高级应用,从而构建更加健壮和可... 目录引言一、Spring Validation基础架构1.1 jsR-380标准与Spring整合1

MySQL 中查询 VARCHAR 类型 JSON 数据的问题记录

《MySQL中查询VARCHAR类型JSON数据的问题记录》在数据库设计中,有时我们会将JSON数据存储在VARCHAR或TEXT类型字段中,本文将详细介绍如何在MySQL中有效查询存储为V... 目录一、问题背景二、mysql jsON 函数2.1 常用 JSON 函数三、查询示例3.1 基本查询3.2

SpringBatch数据写入实现

《SpringBatch数据写入实现》SpringBatch通过ItemWriter接口及其丰富的实现,提供了强大的数据写入能力,本文主要介绍了SpringBatch数据写入实现,具有一定的参考价值,... 目录python引言一、ItemWriter核心概念二、数据库写入实现三、文件写入实现四、多目标写入

使用Python将JSON,XML和YAML数据写入Excel文件

《使用Python将JSON,XML和YAML数据写入Excel文件》JSON、XML和YAML作为主流结构化数据格式,因其层次化表达能力和跨平台兼容性,已成为系统间数据交换的通用载体,本文将介绍如何... 目录如何使用python写入数据到Excel工作表用Python导入jsON数据到Excel工作表用

Mysql如何将数据按照年月分组的统计

《Mysql如何将数据按照年月分组的统计》:本文主要介绍Mysql如何将数据按照年月分组的统计方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录mysql将数据按照年月分组的统计要的效果方案总结Mysql将数据按照年月分组的统计要的效果方案① 使用 DA

PyInstaller打包selenium-wire过程中常见问题和解决指南

《PyInstaller打包selenium-wire过程中常见问题和解决指南》常用的打包工具PyInstaller能将Python项目打包成单个可执行文件,但也会因为兼容性问题和路径管理而出现各种运... 目录前言1. 背景2. 可能遇到的问题概述3. PyInstaller 打包步骤及参数配置4. 依赖