使用lxml爬取房屋信息(静态网页,无反爬)

2023-10-24 23:10

本文主要是介绍使用lxml爬取房屋信息(静态网页,无反爬),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 先上代码

 后面有解释

import requests
from lxml import etree
import csv
import timeheader = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:104.0) Gecko/20100101 Firefox/104.0"}def download(url):html = requests.get(url, headers=header)time.sleep(2)return etree.HTML(html.text)def data_save(item):with open(r'C:/Users/Administrator/Desktop/lianjia.csv','a',encoding="GB18030",newline="") as f:w = csv.writer(f)w.writerow(item)def spyder(url):selector = download(url)h_list = selector.xpath('//*[@id="content"]/div[1]/ul/li')for house in h_list:name = house.xpath("div[1]/div[2]/div/a[1]/text()")[0]layout = house.xpath("div[1]/div[2]/div/a[2]/text()")[0]area = house.xpath("div[1]/div[3]/div/text()")[0]# area = house.xpath("div[1]/div[3]/div/text()")[0].split()[1]price = house.xpath("div[1]/div[6]/div[2]/span/text()")[0]total = house.xpath("div[1]/div[6]/div[1]/span/text()")[0]item = [name, layout, area, price, total]data_save(item)print(name, "抓取成功")if __name__ == '__main__':pre = 'https://zz.lianjia.com/ershoufang/pg'for x in range(1,10):h_url = pre +str(x)spyder(h_url)

1、安装模块

如果没安装模块,可以详细看看这个

(安装好的可以跳过)

最好使用国内源(清华,阿里,豆瓣,中科大等等。)

以清华源为例:

Terminal(pycharm终端窗口),或者进入Powershell,或者自己的pip位置

查看源

pip config list

如果没有更改源,可以运行以下代码进行更改为清华源

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

然后进行pip下载会比国外的默认源快

pip install +需要安装的名字

pip install requests
pip install lxml

代码解释

2、导入

import requests
from lxml import etree
import csv
import time

3、伪装浏览器

header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:104.0) Gecko/20100101 Firefox/104.0"}

请求头查看方法:打开浏览器,打开一个网站A,按F12(或者右键单击,然后选择检查),在弹出的窗口最上边选择Network(网络),然后刷新网页A,选择Name,然后右边往下滑动。

def

1、解析网站

def download(url):
# 定义一个download的函数,传入一个参数名称为url的参数

    html = requests.get(url, headers=header)
# 将爬虫模拟get请求访问的信息传递给html(url是参数:访问网站)headers是伪装浏览器请求头

    time.sleep(2)  # 让全局暂停2秒return etree.HTML(html.text)
# 调用lxml中的etree函数的HTML部分,参数是上个代码段中的html的文本(html.text)

2、保存数据

def data_save(item):   # 定义一个名叫data_save的函数with open(r'C:/Users/Administrator/Desktop/lianjia.csv','a',encoding="GB18030",newline="") as f:
# with open是打开的函数,参数:第一个参数是保存位置,r是不转义字符,a是读取方式,encoding是解码方式,newline是换行方式,最后的as f是把with open(参数)简称为fw = csv.writer(f)  #调用csv中的writer()方法w.writerow(item)  # 调用w并写入item

3、爬取数据

def spyder(url):selector = download(url)   # 调用download函数,赋值给selector
# 选取路径h_list = selector.xpath('//*[@id="content"]/div[1]/ul/li') for house in h_list:name = house.xpath("div[1]/div[2]/div/a[1]/text()")[0]layout = house.xpath("div[1]/div[2]/div/a[2]/text()")[0]area = house.xpath("div[1]/div[3]/div/text()")[0]# area = house.xpath("div[1]/div[3]/div/text()")[0].split()[1]price = house.xpath("div[1]/div[6]/div[2]/span/text()")[0]total = house.xpath("div[1]/div[6]/div[1]/span/text()")[0]item = [name, layout, area, price, total]data_save(item)  # 给data_save传递参数print(name, "抓取成功")

选取路径方法:

 

这篇关于使用lxml爬取房屋信息(静态网页,无反爬)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/278380

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

pdfmake生成pdf的使用

实际项目中有时会有根据填写的表单数据或者其他格式的数据,将数据自动填充到pdf文件中根据固定模板生成pdf文件的需求 文章目录 利用pdfmake生成pdf文件1.下载安装pdfmake第三方包2.封装生成pdf文件的共用配置3.生成pdf文件的文件模板内容4.调用方法生成pdf 利用pdfmake生成pdf文件 1.下载安装pdfmake第三方包 npm i pdfma

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

git使用的说明总结

Git使用说明 下载安装(下载地址) macOS: Git - Downloading macOS Windows: Git - Downloading Windows Linux/Unix: Git (git-scm.com) 创建新仓库 本地创建新仓库:创建新文件夹,进入文件夹目录,执行指令 git init ,用以创建新的git 克隆仓库 执行指令用以创建一个本地仓库的

【北交大信息所AI-Max2】使用方法

BJTU信息所集群AI_MAX2使用方法 使用的前提是预约到相应的算力卡,拥有登录权限的账号密码,一般为导师组共用一个。 有浏览器、ssh工具就可以。 1.新建集群Terminal 浏览器登陆10.126.62.75 (如果是1集群把75改成66) 交互式开发 执行器选Terminal 密码随便设一个(需记住) 工作空间:私有数据、全部文件 加速器选GeForce_RTX_2080_Ti