【python爬虫 系列】12.实战一 爬取北京地区所有的房租信息

2024-02-04 02:20

本文主要是介绍【python爬虫 系列】12.实战一 爬取北京地区所有的房租信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

实战一
爬取北京地区所有的房租信息

1.要求
包括以下信息:
标题,租金,出租方式,户型,建筑面积,
朝向,楼层,装修等信息
存储于MYSQL中。导出excel或者csv
Sql导出csv方法:
select * from house into outfile "D:/out.csv

2.分析信息:
网址:https://zu.fang.com/

直接请求时请求不到页面
需要具备各种参数
启动Fiddler编写测试

需要三个参数
头部
来源
Cookies

3.设计架构:
数据库db.py
爬虫main.py
测试test.py

我们发起的request请求太多,
使用长连接,避免占用太多资源

4.编写db.py(创建表)

4.1这在之前,我们先调节一下我们的数据库配置文件,改为:

[client]
#设置mysq|客户端默认字符集
# default character- set=utf8[mysqld]
#设置3306端口
port = 3306
#设置mysql的安装目录
basedir=D:\mysql-8.0.19-winx64
#允许最大连接数
max_connections=1000
#服务端使用的字符集默认为8比特编码的latin1字符集
character-set-server=utf8
#创建新表时将使用的默认存储引擎
default-storage-engine=INNODB
#导出文件需要
secure_file_priv="D:/"

4.2链接数据库:

在这里插入图片描述

4.3写入db.py:

#存放数据库代码#导入包
from sqlalchemy import create_engine
from sqlalchemy import Column,Integer,String
from sqlalchemy.orm import sessionmaker,scoped_session
from sqlalchemy.ext.declarative import declarative_base
#创建连接
BASE=declarative_base() #创建基类
# 连接数据库
engine = create_engine("mysql+pymysql://root:123456@127.0.0.1:3306/test?charset=UTF8MB4",# (里面的 root 要填写你的密码),注意:mysql+pymysql 之间不要加空格# "mysql + pymysql://root:root@localhost/test",max_overflow = 500, # 超过连接池大小之后,外最多可以创建的链接pool_size = 100, # 连接池大小echo = True, # 调试信息展示
)
#建表
class House(BASE):__tablename__="house" #表名 id=Column(Integer,primary_key=True,autoincrement=True) #id 主键自增block=Column(String(125))rent=Column(String(125))data=Column(String(225))#建立数据库
BASE.metadata.create_all(engine) #创建Session=sessionmaker(engine) 
sess=scoped_session(Session)  #为了线程安全

4.4运行后在cmd查看运行结果:

5.编写main.py
用session取代requests
解析库使用xpath
并发库使用concurrent

5.1Headers的构建(在开发者页面里找到参数):

headers={'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}

4.2分析url(对爬取的多个页面url进行分析寻找规律)

部分url:

https://zu.fang.com/house -a01/
https://zu.fang.com/house- a00/
https://zu.fang.com/house- a010/
https://zu.fang.com/house-a016/

分析结果:urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]
4.3初步编写main.py
首先写单线程模式,优化是后期的事情过早优化会让代码复杂,可读性低

import requests
from lxml import etree
import re
from urllib import parse
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from db import sess,House  #从我们的db.py引入 线程安全和表headers={'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}session = requests.session()  #建立会话利用session长链接
session.headers = headersdef main():urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]for url in urls:get_index(url)if __name__ == '__main__':main()session.close()

4.4爬取列表页,获取详细data
获取一个地区后
爬去每个地区的房子总页数
方便下一步迭代

def get_index(url):html=session.get(url)if html.status_code==200:get_data(html)else:print("请求页面{}出错".format(url))

分析每个地区下不同列表页数:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
可以发现页数这是相当没有规律的,但是有一个好的地方就是每个地区下都会标注一共有多少页,这样也就方便了我们,只要我们把这个页面总数get到就可以了,我们可以利用xpath和正则表达式实现这一点。

对海淀区的不同页url进行分析

url:
1页:https://zu.fang.com/house-a00/i31/
2页:https://zu.fang.com/house-a00/i32/
3页:https://zu.fang.com/house-a00/i33/

完善如下:

import requests
from lxml import etree
import re
from urllib import parse
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from db import sess,House  #从我们的db.py引入 线程安全和表headers={'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}session = requests.session()  #建立会话利用session长链接
session.headers = headers
#进入首页
def get_index(url):html=session.get(url)if html.status_code==200:get_data(html)else:print("请求页面{}出错".format(url))
#获取数字
def get_number(text):number=re.compile('\d+')return number.findall(text)[0]
#获取页面的page总数
def get_pages(html):soup=etree.HTML(html.text)pages=soup.xpath('//div[@class="fanye"]/span[@class="txt"]/text()')number=get_number(pages[0])if number:return int(number)return None#获取页面
def get_data(html):pages=get_pages(html)if not pages:pages=1urls=['https://zu.fang.com/house-a00/i3%d/'%i for i in range(1,pages+1)]for url in urls:get_data_next(url)def main():urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]for url in urls:get_index(url)if __name__ == '__main__':main()session.close()

4.5获取页面的预览信息
预览页面中有有用信息可以事先爬取

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
注意这里的hrf并不是全的,需要我们利用urljoin方法补全主站

import requests
from lxml import etree
import re
from urllib import parse
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from db import sess,House  #从我们的db.py引入 线程安全和表headers={'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}session = requests.session()  #建立会话利用session长链接
session.headers = headers
#进入首页
def get_index(url):html=session.get(url)if html.status_code==200:get_data(html)else:print("请求页面{}出错".format(url))
#获取数字
def get_number(text):number=re.compile('\d+')return number.findall(text)[0]
#获取页面的page总数
def get_pages(html):soup=etree.HTML(html.text)pages=soup.xpath('//div[@class="fanye"]/span[@class="txt"]/text()')number=get_number(pages[0])if number:return int(number)return None#获取页面
def get_data(html):pages=get_pages(html)if not pages:pages=1urls=['https://zu.fang.com/house-a00/i3%d/'%i for i in range(1,pages+1)]for url in urls:get_data_next(url)def get_data_next(url):html=session.get(url)soup=etree.HTML(html.text)dls=soup.xpath('//div[@class="houseList"]/dl')for dl in dls:try:title=dl.xpath('dd/p/a/text()')[0]rent=dl.xpath('dd/div/p/span[@class="price"]/text()')[0]href=parse.urljoin("https://zu.fang.com",dl.xpath('dd/p/a/@href')[0])#print(title,rent,href)except IndexError as e:print("dl error")def main():urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]for url in urls:get_index(url)if __name__ == '__main__':main()session.close()

4.6获取详情页信息

获取line:
在这里插入图片描述
获取line下的标签:

在这里插入图片描述

4.7完善单线程的main.py
数据入库防止插入数据失败,编写回滚

import requests
from lxml import etree
import re
from urllib import parse
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from db import sess,House  #从我们的db.py引入 线程安全和表headers={'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}session = requests.session()  #建立会话利用session长链接
session.headers = headers
#进入首页
def get_index(url):html=session.get(url)if html.status_code==200:get_data(html)else:print("请求页面{}出错".format(url))
#获取数字
def get_number(text):number=re.compile('\d+')return number.findall(text)[0]
#获取页面的page总数
def get_pages(html):soup=etree.HTML(html.text)pages=soup.xpath('//div[@class="fanye"]/span[@class="txt"]/text()')number=get_number(pages[0])if number:return int(number)return None#获取页面
def get_data(html):pages=get_pages(html)if not pages:pages=1urls=['https://zu.fang.com/house-a00/i3%d/'%i for i in range(1,pages+1)]for url in urls:get_data_next(url)def get_data_next(url):html=session.get(url)soup=etree.HTML(html.text)dls=soup.xpath('//div[@class="houseList"]/dl')for dl in dls:try:title=dl.xpath('dd/p/a/text()')[0]rent=dl.xpath('dd/div/p/span[@class="price"]/text()')[0]href=parse.urljoin("https://zu.fang.com",dl.xpath('dd/p/a/@href')[0])#print(title,rent,href)get_house_data(href,title,rent,href)except IndexError as e:print("dl error")#获取单个房间的信息
def get_house_data(url,*args):html=session.get(url)soup=etree.HTML(html.text)lines=soup.xpath('//div[starts-with(@class,"tab-cont-ri")]/div[@class="tr-line clearfix"]')[:2]results=""for line in lines:datas=line.xpath('div[contains(@class,"trl-item1")]/div[@class="tt"]/text()')results+="|".join(datas)#print(results)s=sess()try:print(s)house=House(block=args[0],rent=args[1],data=results)s.add(house)s.commit()print("commit")except Exception as e:print("rollback",e)s.rollback()def main():urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]for url in urls:get_index(url)if __name__ == '__main__':main()session.close()

4.8优化
1)优化
完成基础架构:先优化两部分
地区部分多进程
每个地区 下多线程
(后续可以在多线程下异步协程或者Celery分布式)

import requests
from lxml import etree
import re
from urllib import parse
from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor
from db import sess,House  #从我们的db.py引入 线程安全和表headers={'cookie': 'global_cookie=txaxdx88dpgv9a49oflr6w4j61yk6sncq90; integratecover=1; city=www; g_sourcepage=zf_fy%5Elb_pc; __utmc=147393320; ASP.NET_SessionId=pyefmyz0epjjnlcjw0yllr4r; keyWord_recenthousebj=%5b%7b%22name%22%3a%22%e6%b5%b7%e6%b7%80%22%2c%22detailName%22%3a%22%22%2c%22url%22%3a%22%2fhouse-a00%2f%22%2c%22sort%22%3a1%7d%5d; Captcha=565778754464366F3136557A644C556259477767704D334E4F37783431497978657165764544395474336737653179312F554358594E52367A6B566A5232373549695265782B76703633733D; unique_cookie=U_tc13v239pj2xmb5t6dasouizw1nk79um3rd*4; __utma=147393320.411936847.1583116386.1583116386.1583119062.2; __utmz=147393320.1583119062.2.2.utmcsr=zu.fang.com|utmccn=(referral)|utmcmd=referral|utmcct=/; __utmt_t0=1; __utmt_t1=1; __utmt_t2=1; __utmb=147393320.3.10.1583119062',
'referer': 'https://zu.fang.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36'}session = requests.session()  #建立会话利用session长链接
session.headers = headers
#进入首页
def get_index(url):html=session.get(url)if html.status_code==200:get_data(html)else:print("请求页面{}出错".format(url))
#获取数字
def get_number(text):number=re.compile('\d+')return number.findall(text)[0]
#获取页面的page总数
def get_pages(html):soup=etree.HTML(html.text)pages=soup.xpath('//div[@class="fanye"]/span[@class="txt"]/text()')number=get_number(pages[0])if number:return int(number)return None#获取页面
def get_data(html):pages=get_pages(html)if not pages:pages=1urls=['https://zu.fang.com/house-a00/i3%d/'%i for i in range(1,pages+1)]with ThreadPoolExecutor(max_workers=10) as t:for url in urls:print("crawl page %s"%url)t.submit(get_data_next,url)
#获取详情页面信息
def get_data_next(url):html=session.get(url)soup=etree.HTML(html.text)dls=soup.xpath('//div[@class="houseList"]/dl')for dl in dls:try:title=dl.xpath('dd/p/a/text()')[0]rent=dl.xpath('dd/div/p/span[@class="price"]/text()')[0]href=parse.urljoin("https://zu.fang.com",dl.xpath('dd/p/a/@href')[0])#print(title,rent,href)get_house_data(href,title,rent,href)except IndexError as e:print("dl error")#获取单个房间的信息
def get_house_data(url,*args):html=session.get(url)soup=etree.HTML(html.text)lines=soup.xpath('//div[starts-with(@class,"tab-cont-ri")]/div[@class="tr-line clearfix"]')[:2]results=""for line in lines:datas=line.xpath('div[contains(@class,"trl-item1")]/div[@class="tt"]/text()')results+="|".join(datas)#print(results)s=sess()try:print(s)house=House(block=args[0],rent=args[1],data=results)s.add(house)s.commit()print("commit")except Exception as e:print("rollback",e)s.rollback()def main():urls=['https://zu.fang.com/house-a0{}/'.format(i) for i in range(1,17)]with ProcessPoolExecutor(max_workers=10) as p:for url in urls:p.submit(get_index,url)if __name__ == '__main__':main()session.close()

这样我们就完成了项目,并且多线程多进程效率十分高

有些时候房天下会301,参考我们之前在状态码那一页所说的就可以成功get

这篇关于【python爬虫 系列】12.实战一 爬取北京地区所有的房租信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/676116

相关文章

Python办公自动化实战之打造智能邮件发送工具

《Python办公自动化实战之打造智能邮件发送工具》在数字化办公场景中,邮件自动化是提升工作效率的关键技能,本文将演示如何使用Python的smtplib和email库构建一个支持图文混排,多附件,多... 目录前言一、基础配置:搭建邮件发送框架1.1 邮箱服务准备1.2 核心库导入1.3 基础发送函数二、

Python包管理工具pip的升级指南

《Python包管理工具pip的升级指南》本文全面探讨Python包管理工具pip的升级策略,从基础升级方法到高级技巧,涵盖不同操作系统环境下的最佳实践,我们将深入分析pip的工作原理,介绍多种升级方... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

PowerShell中15个提升运维效率关键命令实战指南

《PowerShell中15个提升运维效率关键命令实战指南》作为网络安全专业人员的必备技能,PowerShell在系统管理、日志分析、威胁检测和自动化响应方面展现出强大能力,下面我们就来看看15个提升... 目录一、PowerShell在网络安全中的战略价值二、网络安全关键场景命令实战1. 系统安全基线核查

基于Python实现一个图片拆分工具

《基于Python实现一个图片拆分工具》这篇文章主要为大家详细介绍了如何基于Python实现一个图片拆分工具,可以根据需要的行数和列数进行拆分,感兴趣的小伙伴可以跟随小编一起学习一下... 简单介绍先自己选择输入的图片,默认是输出到项目文件夹中,可以自己选择其他的文件夹,选择需要拆分的行数和列数,可以通过

Python中反转字符串的常见方法小结

《Python中反转字符串的常见方法小结》在Python中,字符串对象没有内置的反转方法,然而,在实际开发中,我们经常会遇到需要反转字符串的场景,比如处理回文字符串、文本加密等,因此,掌握如何在Pyt... 目录python中反转字符串的方法技术背景实现步骤1. 使用切片2. 使用 reversed() 函

Python中将嵌套列表扁平化的多种实现方法

《Python中将嵌套列表扁平化的多种实现方法》在Python编程中,我们常常会遇到需要将嵌套列表(即列表中包含列表)转换为一个一维的扁平列表的需求,本文将给大家介绍了多种实现这一目标的方法,需要的朋... 目录python中将嵌套列表扁平化的方法技术背景实现步骤1. 使用嵌套列表推导式2. 使用itert

使用Docker构建Python Flask程序的详细教程

《使用Docker构建PythonFlask程序的详细教程》在当今的软件开发领域,容器化技术正变得越来越流行,而Docker无疑是其中的佼佼者,本文我们就来聊聊如何使用Docker构建一个简单的Py... 目录引言一、准备工作二、创建 Flask 应用程序三、创建 dockerfile四、构建 Docker

Python使用vllm处理多模态数据的预处理技巧

《Python使用vllm处理多模态数据的预处理技巧》本文深入探讨了在Python环境下使用vLLM处理多模态数据的预处理技巧,我们将从基础概念出发,详细讲解文本、图像、音频等多模态数据的预处理方法,... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Python使用pip工具实现包自动更新的多种方法

《Python使用pip工具实现包自动更新的多种方法》本文深入探讨了使用Python的pip工具实现包自动更新的各种方法和技术,我们将从基础概念开始,逐步介绍手动更新方法、自动化脚本编写、结合CI/C... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

Conda与Python venv虚拟环境的区别与使用方法详解

《Conda与Pythonvenv虚拟环境的区别与使用方法详解》随着Python社区的成长,虚拟环境的概念和技术也在不断发展,:本文主要介绍Conda与Pythonvenv虚拟环境的区别与使用... 目录前言一、Conda 与 python venv 的核心区别1. Conda 的特点2. Python v