广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据

本文主要是介绍广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

一、背景

在平常爬取过程中会遇到很多结构不同和渲染方式不同的网站,比如这次的宝筹贷,它的列表页渲染方式和详情页的渲染方式是不一致的,详情页和投资记录的数据渲染方式则一致。遇到这样的数据,通常的应对方法有两种:

1.scrapy直接请求接口地址即可,模拟登录或者甚至不用登录,像爬取乐助贷、够力金融、汇泰在线这些平台一样,直接从接口拿数据就行了。

2.scrapy结合selenium进行爬取,这个就有意思了。

二、目的

通过工具的结合,对平台的数据进行抓取,只写逻辑,具体详细的入库操作就不仔细记录了。

三、条件

1.列表页渲染方式是html/css

2.详情页和投资记录页是通过Ajax和api进行通信的

3.投资记录的接口请求跟够力金融的类似,都是需要接口翻页(我就不重复写了)

四、工具

1.scrapy爬虫框架

2.selenium自动化测试工具

五、示例

代码逻辑:

1.在middleware里面将scrapy和selenium进行结合

2.在spider中重载方法,做到开启爬虫时自动调用浏览器,在爬虫退出后自动关闭浏览器

3.到列表页进行url的抽取,交给parse_detail进行详细的爬取

4.parse_detail进行详细数据爬取,并且交给item进行序列化

以下是spider里面的代码:


class BaochouSpider(scrapy.Spider):name = 'baochou'allowed_domains = ['www.baochoudai.com']start_urls = ['https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=lists&t=1']def __init__(self):"""通过chrome请求动态网页当爬虫关闭的时候  自动关闭浏览器窗口"""# 设置chromediver不加载图片chrome_opt = webdriver.ChromeOptions()  # 初始化配置ChromeOptionsprefs = {"profile.managed_default_content_settings.images": 2}  # 开关  这是固定写法chrome_opt.add_experimental_option("prefs", prefs)  # 配置进来self.browser = webdriver.Chrome(executable_path="E:/SpiderTools/chromedriver.exe",chrome_options=chrome_opt)super(BaochouSpider, self).__init__()# 当收到spider_closed信号的时候,调用下面的spider_colosed方法来关闭浏览器dispatcher.connect(self.spider_closed, signals.spider_closed)def spider_closed(self, spider):# 当爬虫退出的时候关闭chromeself.browser.quit()def parse(self, response):"""将当前列表页的每条标的链接拿到并传给detail进行深入爬取已知页码可以在url中循环  就不用翻页了"""total = response.css('h4.inline-block.mb15.fs22 a')for x in total:target_urls = x.css('::attr(href)').extract_first("")yield Request(url=parse.urljoin(response.url,target_urls),callback=self.parse_detail)for i in range(1,22):next_pages = "https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=lists&t=1&page=%s" %(i)yield Request(url=next_pages,callback=self.parse)def parse_detail(self, response):loaders = BaochouItemLoader(item=BaochouItem(),response=response)loaders.add_css("title", ".inline-block.pr20 span::text")loaders.add_css("protype", ".inline-block.pr20 span::text")loaders.add_css("amount", ".fl.w280.pt15 span.fs46.lh1::text")loaders.add_css("profit", ".fl.w220.pt15 span.fs46.lh1::text")loaders.add_css("terms", "div.pl30:nth-child(3) div:first-child span:first-child::text")loaders.add_value("target_urls", response.url)loaders.add_value("target_urls_id", response.url)iloaders_item = loaders.load_item()yield iloaders_item

middleware里面结合selenium的代码就不记录了。

六、总结

全程通过浏览器进行自动化爬取,写完代码运行即可

由于调用浏览器比较费时费力,所以在调用的时候禁止浏览器加载图片,速度加快一倍

其实这种加载浏览器的方式速度会变慢,实在不得已而为止的情况下再考虑用(比如某些网站限制爬虫访问,那么就要用到这种方式)

相对于直接请求接口api,这种方式得到的数据并没有那么齐全,如果是请求api也是可以拿到Userid的,对用户行为、偏好、投资能力等进行分析和推算。比如宝筹贷这个平台的投资人属性有以下几种:

1.很多投资人都是只投100元

2.投资终端最多的就是微信

3.可以根据api中投资人的手机号码计算投资人归属地

4.得到完整数据后计算投资总额top10/投资次数Top10

5.投资人单笔投资金额普遍是1000以内,超过1000的不多

七、部分数据展示

以下是宝筹贷的部分数据展示 包括(id 标题、金额、收益率、期限、对应地址、唯一id、来源、类型)等

'2131', '2017101703保汇贷03号', '500000', '10', '4.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20171000003', '4b5f66f1445bcb6558515a85d5ba2c50', NULL, '宝筹贷', '14''2132', '2017101102保汇贷02号', '600000', '9.8', '3.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20171000002', '4efd8370abcd9622df51c9f6a9fa674f', NULL, '宝筹贷', '14''2133', '20150731房产抵押借款项目第03号', '900000', '15', '1.0', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150700022', '700acd1785848a3072b484c0710251e0', NULL, '宝筹贷', '2''2134', '20150728房产抵押借款项目第01-22号', '20000', '18', '0.3333333333333333', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150700020', '3a2b77053c9518f02b579cff977e2e6e', NULL, '宝筹贷', '2''2135', '20150812房产抵押04-1号', '20000', '20', '0.5', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800002', '3306ed018df098febcf08b55bd9a21f1', NULL, '宝筹贷', '2''2136', '20150807银行过桥项目第01号', '380000', '15', '0.3333333333333333', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800001', '821d818039a38a0ec8f0c3e7b0fa9373', NULL, '宝筹贷', '14''2137', '20150818房产抵押04-2号', '20000', '20', '0.5', NULL, NULL, 'https://www.baochoudai.com/index.php?g=Borrow&m=Public&a=show&borrow_nid=20150800003', '32217f70fbb8af31a234e5d4dc12f46c', NULL, '宝筹贷', '2'

转载于:https://my.oschina.net/RanboSpider/blog/1605694

这篇关于广西互联网金融平台系列-Scrapy结合Selenium爬虫爬取宝筹贷数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/761398

相关文章

Java中注解与元数据示例详解

《Java中注解与元数据示例详解》Java注解和元数据是编程中重要的概念,用于描述程序元素的属性和用途,:本文主要介绍Java中注解与元数据的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参... 目录一、引言二、元数据的概念2.1 定义2.2 作用三、Java 注解的基础3.1 注解的定义3.2 内

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据

C++中使用vector存储并遍历数据的基本步骤

《C++中使用vector存储并遍历数据的基本步骤》C++标准模板库(STL)提供了多种容器类型,包括顺序容器、关联容器、无序关联容器和容器适配器,每种容器都有其特定的用途和特性,:本文主要介绍C... 目录(1)容器及简要描述‌php顺序容器‌‌关联容器‌‌无序关联容器‌(基于哈希表):‌容器适配器‌:(

C#提取PDF表单数据的实现流程

《C#提取PDF表单数据的实现流程》PDF表单是一种常见的数据收集工具,广泛应用于调查问卷、业务合同等场景,凭借出色的跨平台兼容性和标准化特点,PDF表单在各行各业中得到了广泛应用,本文将探讨如何使用... 目录引言使用工具C# 提取多个PDF表单域的数据C# 提取特定PDF表单域的数据引言PDF表单是一

一文详解Python中数据清洗与处理的常用方法

《一文详解Python中数据清洗与处理的常用方法》在数据处理与分析过程中,缺失值、重复值、异常值等问题是常见的挑战,本文总结了多种数据清洗与处理方法,文中的示例代码简洁易懂,有需要的小伙伴可以参考下... 目录缺失值处理重复值处理异常值处理数据类型转换文本清洗数据分组统计数据分箱数据标准化在数据处理与分析过

大数据小内存排序问题如何巧妙解决

《大数据小内存排序问题如何巧妙解决》文章介绍了大数据小内存排序的三种方法:数据库排序、分治法和位图法,数据库排序简单但速度慢,对设备要求高;分治法高效但实现复杂;位图法可读性差,但存储空间受限... 目录三种方法:方法概要数据库排序(http://www.chinasem.cn对数据库设备要求较高)分治法(常

Python将大量遥感数据的值缩放指定倍数的方法(推荐)

《Python将大量遥感数据的值缩放指定倍数的方法(推荐)》本文介绍基于Python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处理,并将所得处理后数据保存为新的遥感影像... 本文介绍基于python中的gdal模块,批量读取大量多波段遥感影像文件,分别对各波段数据加以数值处

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

Linux使用dd命令来复制和转换数据的操作方法

《Linux使用dd命令来复制和转换数据的操作方法》Linux中的dd命令是一个功能强大的数据复制和转换实用程序,它以较低级别运行,通常用于创建可启动的USB驱动器、克隆磁盘和生成随机数据等任务,本文... 目录简介功能和能力语法常用选项示例用法基础用法创建可启动www.chinasem.cn的 USB 驱动