贝壳新房数据获取--词云处理--requests

2023-10-24 21:40

本文主要是介绍贝壳新房数据获取--词云处理--requests,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 

目录

目标网址分析

目标网址

大体结构

查看分页

数据获取与保存

数据查看

CSV查看

Excel打开

 词云


学习内容获取重庆贝壳新房房价数据,CSV形式保存在本地,解决Excel打开乱码问题,并对其数据进行简单词云处理........

  • 目标网址分析

  • 目标网址

  • 【重庆楼盘_重庆新楼盘_重庆新房房价】信息网-重庆贝壳新房
  • 大体结构

查看后得到:

  • 提取结构:

  • 查看分页

  • 发现分页很规则,,,,,,,,,
# https://cq.fang.ke.com/loupan/pg1/  第 1 页
# https://cq.fang.ke.com/loupan/pg2/  第 2 页
# https://cq.fang.ke.com/loupan/pg3/  第 3 页
# url = 'https://cq.fang.ke.com/loupan/pg' + str(page)
  • 数据获取与保存

代码

"""
2022年CSDN:抄代码抄错的小牛马
"""
import requests
from lxml import etree
import csvheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36',
}# 分页操作
def get_url():star_page = int(input("请输入起始页码:"))end_page = int(input("请输入结束页码:"))s = []for page in range(star_page, end_page + 1):url = 'https://cq.fang.ke.com/loupan/pg' + str(page)# print(url)s.append(url)# print(s)return s# 解析数据与保存
def get_data(s):for url in s:# print(url)resp = requests.get(url=url, headers=headers)content = resp.text# 解析tree = etree.HTML(content)li_list = tree.xpath('//div[@class="resblock-list-container clearfix"]/ul[@class="resblock-list-wrapper"]/li')# 循环for i in li_list:# 标题title = i.xpath('./div/div/a/text()')[0]# 销售状态和房屋类型type = i.xpath('./div/div[1]/span/text()')zhuangtai_type = ','.join(type)# 地理位置location = i.xpath('./div[@class="resblock-desc-wrapper"]/a/text()')locations = ' '.join(location).replace('\n\t', '').replace('\t', '')# 平米均价price = i.xpath('./div[@class="resblock-desc-wrapper"]/div[@class="resblock-price"]/div/span/text()')avg_price = ''.join(price)# 总价/套General_price = \i.xpath('./div[@class="resblock-desc-wrapper"]/div[@class="resblock-price"]/div[@class="second"]/text()')General_prices = ''.join(General_price)# 户型room_type = i.xpath('./div[@class="resblock-desc-wrapper"]/a[@class="resblock-room"]/span/text()')room_types = ''.join(room_type)# 房子简介Brief_introduction = i.xpath('./div[@class="resblock-desc-wrapper"]/div[@class="resblock-tag"]/span/text()')Brief_introductions = ','.join(Brief_introduction)# 写入数据writer.writerow([title, zhuangtai_type, locations, avg_price, General_prices, room_types, Brief_introductions])if __name__ == '__main__':# 新建CSV文件 newline=''防止空行写入f = open('重庆新房房价.csv', mode='a', encoding='utf-8', newline='')writer = csv.writer(f)# 写入表头, 在这里写如表头,可避免重复写入head = ['标题', '销售状态和房屋类型', '地理位置', '平米均价', '总价/套', '户型', '房子简介']writer.writerow(head)s = get_url()get_data(s)# 关闭文件f.close()
  • 数据查看

  • CSV查看

  • Excel打开

  • 解决乱码问题

  •  解决

加载后,打开并另存为: 

  •  词云

代码:

"""
2022年CSDN:抄代码抄错的小牛马
"""
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image
import wordcloud
import jieba
from wordcloud import ImageColorGeneratordef func1():file = open('重庆新房房价.csv', encoding="utf-8")  # 当前路径result = file.read()file.close()return resultdef func2(words):wordList = jieba.lcut(words)pic = np.array(Image.open("1.jpg"))pic_color = ImageColorGenerator(pic)c = wordcloud.WordCloud(scale=4,mask=pic,font_path="./1.ttf",  # 字体路径(隶书)background_color='white', )  # 背景颜色c.generate(",".join(wordList))  # 生成词云plt.imshow(c.recolor(color_func=pic_color), interpolation='bilinear')c.to_file('./重庆重庆新房房价.jpg')words = func1()
func2(words)

效果:

 拜~~~

这篇关于贝壳新房数据获取--词云处理--requests的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/277930

相关文章

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

微信公众号脚本-获取热搜自动新建草稿并发布文章

《微信公众号脚本-获取热搜自动新建草稿并发布文章》本来想写一个自动化发布微信公众号的小绿书的脚本,但是微信公众号官网没有小绿书的接口,那就写一个获取热搜微信普通文章的脚本吧,:本文主要介绍微信公众... 目录介绍思路前期准备环境要求获取接口token获取热搜获取热搜数据下载热搜图片给图片加上标题文字上传图片

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

C#使用SQLite进行大数据量高效处理的代码示例

《C#使用SQLite进行大数据量高效处理的代码示例》在软件开发中,高效处理大数据量是一个常见且具有挑战性的任务,SQLite因其零配置、嵌入式、跨平台的特性,成为许多开发者的首选数据库,本文将深入探... 目录前言准备工作数据实体核心技术批量插入:从乌龟到猎豹的蜕变分页查询:加载百万数据异步处理:拒绝界面

Springboot处理跨域的实现方式(附Demo)

《Springboot处理跨域的实现方式(附Demo)》:本文主要介绍Springboot处理跨域的实现方式(附Demo),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录Springboot处理跨域的方式1. 基本知识2. @CrossOrigin3. 全局跨域设置4.

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

python+opencv处理颜色之将目标颜色转换实例代码

《python+opencv处理颜色之将目标颜色转换实例代码》OpenCV是一个的跨平台计算机视觉库,可以运行在Linux、Windows和MacOS操作系统上,:本文主要介绍python+ope... 目录下面是代码+ 效果 + 解释转HSV: 关于颜色总是要转HSV的掩膜再标注总结 目标:将红色的部分滤

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1