rvest爬取链家网数据

2024-01-30 15:40
文章标签 数据 爬取 rvest 链家网

本文主要是介绍rvest爬取链家网数据,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、工具说明

  • 火狐浏览器
  • fireBug插件
  • R软件
  • revest包、stringr包

二、数据说明

想要获取链家网南京楼盘的信息,如:楼盘名称、地址、面积、是否在售、住宅性质、价格。最后在R里生成数据框
这里写图片描述


三、代码

Part1:加载包,rvest用于爬取数据、stringr处理字符串

# 加载包 ------------------------------------------
#加载rvest,没有则先安装后加载
tryCatch({library(rvest)
}, error = function(e) {print("No This Package")
},
finally = {install.packages("rvest")library(rvest)
})
library(stringr)

Part2:读取网页,求页数

想要获取该信息页数,如下图所示:
这里写图片描述
使用Firebug插件,很容易定位元素。
点击红框处图标,再点击黄框处10.自动定位元素位置,可以分析标签值等信息
这里写图片描述

# 读取网页,求页数 ----------------------------------------------------------------
url <- 'http://nj.fang.lianjia.com/loupan/'
web <- read_html(url)
#html_attr("page-data") 是从html_nodes('div.page-box')筛选出的标签中,查找page-data属性的值
page <-web %>% html_nodes('div.page-box') %>% html_attr("page-data")
page_num <- str_extract(page, '[0-9]+')#取出字符串里面的数字,+表示可以是多位的
page_num <- as.numeric(page_num)

Part3:循环读取每页上所需要的信息

# 循环读取每页上所需要的信息---------------------------
#所需列
name = area = price = type = address = status = NULL
for (i in 1:page_num) {#楼盘名称name <- c(name,web %>% html_nodes('div.info-panel') %>%html_nodes('a') %>% html_text())#地址address <- c(address,web %>% html_nodes('div.info-panel') %>%html_nodes('div.where') %>% html_nodes('span.region') %>%html_text())#面积area_ass <-web %>% html_nodes('div.info-panel') %>% html_nodes('div.area')  %>% html_nodes('span') %>%html_text()area = c(area, str_extract(area_ass, '[0-9]+~[0-9]+|[0-9]+'))#找到形如11~12或者数字的字符串price_ass <-web %>% html_nodes('div.info-panel') %>% html_nodes('div.average')  %>% html_nodes('span') %>%html_text()price = c(price, as.numeric(price_ass))#房屋性质type <- c(type,web %>% html_nodes('div.info-panel') %>%html_nodes('div.type') %>% html_nodes('span.live') %>% html_text())#是否在售status <- c(status,web %>% html_nodes('div.info-panel') %>%html_nodes('div.type') %>% html_nodes('span.onsold') %>% html_text())house_data <-data.frame(name = name,area = area,price = price,type = type,address = address,status = status,stringsAsFactors = F) 
}
# Ending############################ --------------------------------------

四、结果

这里写图片描述


五、Ref

[1] 链家网地址
[2] 快速定位元素:http://jingyan.baidu.com/article/19192ad81ab005e53e5707d6.html
[3] 《rvest + CSS Selector 网页数据抓取的最佳选择 》
[4] 语言爬虫初尝试-基于RVEST包学习
[5] 标签含义速查网站
[6] R语言学习:使用rvest包抓取网页数据

这篇关于rvest爬取链家网数据的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/660717

相关文章

MySQL数据目录迁移的完整过程

《MySQL数据目录迁移的完整过程》文章详细介绍了将MySQL数据目录迁移到新硬盘的整个过程,包括新硬盘挂载、创建新的数据目录、迁移数据(推荐使用两遍rsync方案)、修改MySQL配置文件和重启验证... 目录1,新硬盘挂载(如果有的话)2,创建新的 mysql 数据目录3,迁移 MySQL 数据(推荐两

Python数据验证神器Pydantic库的使用和实践中的避坑指南

《Python数据验证神器Pydantic库的使用和实践中的避坑指南》Pydantic是一个用于数据验证和设置的库,可以显著简化API接口开发,文章通过一个实际案例,展示了Pydantic如何在生产环... 目录1️⃣ 崩溃时刻:当你的API接口又双叒崩了!2️⃣ 神兵天降:3行代码解决验证难题3️⃣ 深度

MySQL快速复制一张表的四种核心方法(包括表结构和数据)

《MySQL快速复制一张表的四种核心方法(包括表结构和数据)》本文详细介绍了四种复制MySQL表(结构+数据)的方法,并对每种方法进行了对比分析,适用于不同场景和数据量的复制需求,特别是针对超大表(1... 目录一、mysql 复制表(结构+数据)的 4 种核心方法(面试结构化回答)方法 1:CREATE

详解C++ 存储二进制数据容器的几种方法

《详解C++存储二进制数据容器的几种方法》本文主要介绍了详解C++存储二进制数据容器,包括std::vector、std::array、std::string、std::bitset和std::ve... 目录1.std::vector<uint8_t>(最常用)特点:适用场景:示例:2.std::arra

MySQL中的DELETE删除数据及注意事项

《MySQL中的DELETE删除数据及注意事项》MySQL的DELETE语句是数据库操作中不可或缺的一部分,通过合理使用索引、批量删除、避免全表删除、使用TRUNCATE、使用ORDERBY和LIMI... 目录1. 基本语法单表删除2. 高级用法使用子查询删除删除多表3. 性能优化策略使用索引批量删除避免

MySQL 数据库进阶之SQL 数据操作与子查询操作大全

《MySQL数据库进阶之SQL数据操作与子查询操作大全》本文详细介绍了SQL中的子查询、数据添加(INSERT)、数据修改(UPDATE)和数据删除(DELETE、TRUNCATE、DROP)操作... 目录一、子查询:嵌套在查询中的查询1.1 子查询的基本语法1.2 子查询的实战示例二、数据添加:INSE

Linux服务器数据盘移除并重新挂载的全过程

《Linux服务器数据盘移除并重新挂载的全过程》:本文主要介绍在Linux服务器上移除并重新挂载数据盘的整个过程,分为三大步:卸载文件系统、分离磁盘和重新挂载,每一步都有详细的步骤和注意事项,确保... 目录引言第一步:卸载文件系统第二步:分离磁盘第三步:重新挂载引言在 linux 服务器上移除并重新挂p

使用MyBatis TypeHandler实现数据加密与解密的具体方案

《使用MyBatisTypeHandler实现数据加密与解密的具体方案》在我们日常的开发工作中,经常会遇到一些敏感数据需要存储,比如用户的手机号、身份证号、银行卡号等,为了保障数据安全,我们通常会对... 目录1. 核心概念:什么是 TypeHandler?2. 实战场景3. 代码实现步骤步骤 1:定义 E

使用C#导出Excel数据并保存多种格式的完整示例

《使用C#导出Excel数据并保存多种格式的完整示例》在现代企业信息化管理中,Excel已经成为最常用的数据存储和分析工具,从员工信息表、销售数据报表到财务分析表,几乎所有部门都离不开Excel,本文... 目录引言1. 安装 Spire.XLS2. 创建工作簿和填充数据3. 保存为不同格式4. 效果展示5

Python多任务爬虫实现爬取图片和GDP数据

《Python多任务爬虫实现爬取图片和GDP数据》本文主要介绍了基于FastAPI开发Web站点的方法,包括搭建Web服务器、处理图片资源、实现多任务爬虫和数据可视化,同时,还简要介绍了Python爬... 目录一. 基于FastAPI之Web站点开发1. 基于FastAPI搭建Web服务器2. Web服务