Python爬虫:如何下载懂车帝的电动车数据(完整代码)

2023-10-10 05:10

本文主要是介绍Python爬虫:如何下载懂车帝的电动车数据(完整代码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

⭐️⭐️⭐️⭐️⭐️欢迎来到我的博客⭐️⭐️⭐️⭐️⭐️
🐴作者:秋无之地

🐴简介:CSDN爬虫、后端、大数据领域创作者。目前从事python爬虫、后端和大数据等相关工作,主要擅长领域有:爬虫、后端、大数据开发、数据分析等。

🐴欢迎小伙伴们点赞👍🏻、收藏⭐️、留言💬、关注🤝,关注必回关

上一篇文章已经跟大家介绍过《数据采集:数据挖掘的基础》,相信大家对用户画像都有一个基本的认识。下面我讲一下:Python爬虫:如何下载懂车帝的电动车数据

一、确定目标数据

1、先打开目标网站,找到目标数据所在的页面

2、找到目标数据所在的api或页面

通过f12打开调试模式,通过搜索关键词,找到关键词所在的api或页面

3、观察请求参数

1)header参数:没有加密数据,无需登录因此不用cookie

2)body参数:同样没有加密参数

3)翻页:body参数新增了limit(每页展示数量)、page(页码)

二、请求接口

使用requests库请求接口,返回数据

    def get_data(self,page=1,is_total=0):'''请求接口'''url = "https://www.dongchedi.com/motor/pc/car/brand/select_series_v2?aid=1839&app_name=auto_web_pc"# body参数data_dict = {"fuel_form": "4","sort_new": "hot_desc","city_name": "广州","limit": 30,"page": page}res = requests.post(url=url, headers=self.header, data=data_dict).json()# print(res)#返回数据if res and 'status' in res and res['status']==0:if is_total:return res['data']['series_count']return res['data']['series']else:return []

三、数据解析

将返回的数据进行json序列化,然后通过遍历、字典提取目标数据

    def data_deal(self,data_list=None):'''数据解析'''new_list = []for data_dict in data_list:#品牌IDbrand_id = data_dict['brand_id']#品牌brand_name = data_dict['brand_name']#封面图cover_url = data_dict['cover_url']#车名outter_name = data_dict['outter_name']#官方指导价official_price = data_dict['official_price']#款式数量count = data_dict['count']#评分dcar_score = data_dict['dcar_score']new_list.append([brand_id,brand_name,cover_url,outter_name,official_price,count,dcar_score])return new_list

四、数据存储

数据解析后,对数据进行拼接,然后持久化,存在csv文件

    def data_to_csv(self,data_li=None):'''数据存储'''df = pd.DataFrame(data_li)df.to_csv("test1.csv", index=False)

文件内容:

五、完整代码

完整代码如下:

# -*- coding: utf-8 -*-
import math
import requests
import pandas as pdclass Dongchedi_class():'''懂车帝'''def __init__(self):self.header = {"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/116.0.0.0 Safari/537.36","Referer":"https://www.dongchedi.com/auto/library/x-x-x-x-x-x-4-x-x-x-x","Origin":"https://www.dongchedi.com",}def get_data(self,page=1,is_total=0):'''请求接口'''url = "https://www.dongchedi.com/motor/pc/car/brand/select_series_v2?aid=1839&app_name=auto_web_pc"# body参数data_dict = {"fuel_form": "4","sort_new": "hot_desc","city_name": "广州","limit": 30,"page": page}res = requests.post(url=url, headers=self.header, data=data_dict).json()# print(res)#返回数据if res and 'status' in res and res['status']==0:if is_total:return res['data']['series_count']return res['data']['series']else:return []def data_deal(self,data_list=None):'''数据解析'''new_list = []for data_dict in data_list:#品牌IDbrand_id = data_dict['brand_id']#品牌brand_name = data_dict['brand_name']#封面图cover_url = data_dict['cover_url']#车名outter_name = data_dict['outter_name']#官方指导价official_price = data_dict['official_price']#款式数量count = data_dict['count']#评分dcar_score = data_dict['dcar_score']new_list.append([brand_id,brand_name,cover_url,outter_name,official_price,count,dcar_score])return new_listdef data_to_csv(self,data_li=None):'''数据存储'''df = pd.DataFrame(data_li)df.to_csv("test1.csv", index=False)def run(self):#获取总页数total = self.get_data(page=1, is_total=1)if total>0:total_page = math.ceil(total/30)print("总数:",total,",总页数:",total_page)#翻页获取数据all_list = []all_list.append(["品牌ID", "品牌", "封面图", "车名", "官方指导价", "款式数量", "评分"])for page in range(1,total_page):print("当前页数:",page)data_list = self.get_data(page=page)out_date = self.data_deal(data_list=data_list)print("*"*100)print(out_date)all_list += out_dateself.data_to_csv(data_li=all_list)if __name__ == '__main__':ddc = Dongchedi_class()ddc.run()

六、总结

Python爬虫主要分三步:

  1. 请求接口
  2. 数据解析
  3. 数据存储

版权声明

本文章版权归作者所有,未经作者允许禁止任何转载、采集,作者保留一切追究的权利。

这篇关于Python爬虫:如何下载懂车帝的电动车数据(完整代码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/178175

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

MyBatis分页查询实战案例完整流程

《MyBatis分页查询实战案例完整流程》MyBatis是一个强大的Java持久层框架,支持自定义SQL和高级映射,本案例以员工工资信息管理为例,详细讲解如何在IDEA中使用MyBatis结合Page... 目录1. MyBATis框架简介2. 分页查询原理与应用场景2.1 分页查询的基本原理2.1.1 分

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF