使用Xpath和Requests实现爬虫并存储在Excel表里

2023-10-21 05:38

本文主要是介绍使用Xpath和Requests实现爬虫并存储在Excel表里,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

爬的是杭州近期的的新房价

# encoding: utf-8
"""
@author: Ruvik
@software: PyCharm
@file: Spider_House.py
@time: 2020/7/9 20:12
"""# 爬一下链家网上杭州新房的价格
import requests                 # 进行网络请求
import xlwt                     # 与excel相关的操作
from lxml import etree          # 引入xpath库,方便定位元素
import time                     # 进行访问频率控制
import random                   # 随机数生成
import re                       # 正则表达式# 主程序
def main():base_url = "https://hz.fang.lianjia.com/loupan/pg"     # 最基本的网址,后续会根据这个进行翻页操作Savepath = ".\\杭州新房价.xls"                           # 存储路径datalist = getdata(base_url)savedata(datalist, Savepath)# 获取html源码
def ask_url(url):html=""headers={          # 进行伪装,防止416错误,模拟浏览器头部信息,向豆瓣服务器发送消息"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"}try:response = requests.get(url,headers=headers,timeout=10)  # 用户代理,表示告诉豆瓣服务器,我们是什么类型的机器、浏览器(本质上是告诉浏览器,我们可以接收什么水平的文件内容)time.sleep(random.randint(3, 6))                        # 每隔3-6s执行一次请求# print(response.status_code)html = response.content                                     # 获取网页的html源代码# print(html)print("请求访问成功")except requests.exceptions.RequestException as e:print("超时")print(e)return html# 从html源码中获取信息
def getdata(baseurl):Datalist = []                                 # 用来存储已经经过处理的信息for i in range(1, 100):                     # 在1-100页内爬取房价的信息url = baseurl+str(i)                    # 拼接url网址,进行换页# print(url)data = ask_url(url)                     # 获取到源代码# 从源代码中提取信息if data != "":html_data = etree.HTML(data)div_list = html_data.xpath('//div[@class="resblock-desc-wrapper"]')# print(len(div_list))for item in div_list:data_item = []# 提取详情链接link = "https://hz.fang.lianjia.com"link += item.xpath('./div/a/@href')[0]data_item.append(link)# print(link)# 提取名字name = item.xpath("./div/a/text()")[0]data_item.append(name)# print(name)# 提取地址loc = item.xpath('./div[@class="resblock-location"]/span/text()')location = loc[0] +"|"+ loc[1] +"|"+ item.xpath('./div[@class="resblock-location"]/a/text()')[0]data_item.append(location)# print(location)# 提取户型room = item.xpath('./a[@class="resblock-room"]/span/text()')rooms = ""for k in range(len(room)):if k < len(room) - 1:rooms += str(room[k]) + "|"else:rooms += str(room[k])# print(rooms)data_item.append(rooms)# 提取大小size = item.xpath('./div[@class="resblock-area"]/span/text()')if len(size) != 0:data_item.append(size[0])# print(size[0])else:data_item.append(" ")# 提取标签tag = item.xpath('./div[@class="resblock-tag"]/span/text()')tags = ""for k in range(len(tag)):if k < len(tag)-1:tags += str(tag[k]) + "|"else:tags += str(tag[k])# print(tags)data_item.append(tags)# 提取价格Price = ""price = item.xpath('./div[@class="resblock-price"]/div/span/text()')for k in range(len(price)):Price += price[k]Price = re.sub('\xa0', "", Price)     # 去掉“\xa0”字符# print(Price)data_item.append(Price)Datalist.append(data_item)print(len(Datalist))return Datalist# 将html获取的信息存入Excel表格中def savedata(Datalist,Savapath):col = ("链接", "名字", "地址", "户型", "大小", "标签", "价格")                # Excel的表头house_list = xlwt.Workbook(encoding="utf-8", style_compression=0)       # 创建workbook对象worksheet = house_list.add_sheet("HouseList", cell_overwrite_ok=True)   # 新建工作区,设为可覆盖for i in range(0, 7):                                                   # 写入表头worksheet.write(0, i, col[i])for i in range(0, 990):                                                 # 写入数据print("正在写入第%d条数据" % (i + 1))item = Datalist[i]for j in range(0, 7):worksheet.write(i + 1, j, item[j])house_list.save(Savapath)                                               # 存储# 程序从这里开始执行
if __name__ == "__main__":main()print("爬取完毕!")

这篇关于使用Xpath和Requests实现爬虫并存储在Excel表里的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/252293

相关文章

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi