python抓取百度企业信用

2023-10-18 22:10

本文主要是介绍python抓取百度企业信用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.抓取百度企业信用的企业信息(基本信息、股东信息、主要人员等)
在这里插入图片描述
2.难点分析,在于解析数据和通过一个爬虫全部解析入库,我自己用的scrapy,代码如下:

    def parse(self,response):detail_url = response.xpath("//h3/a/@href").extract()[0]# 拼接详情页urldetail_url = "https://xin.baidu.com" + detail_urltry:yield scrapy.Request(detail_url,callback=self.parse_details,dont_filter=True)except Exception as e:logger.error(e)# 详情页解析def parse_details(self, response):# 营业执照的itemitem = QccItem()try:# 法定代表人item["legal_person"] = \response.xpath("//table[@class='zx-detail-basic-table']//tr[2]/td[2]//text()").extract()[0]# print(item["legal_person"])except:item["legal_person"] = " "try:# 注册资本item["money"] = \int(response.xpath("//table[@class='zx-detail-basic-table']//tr[1]/td[2]//text()").extract()[0].strip().split("万")[0])# print(item["money"])if item["money"] == "-":item["money"] = Noneexcept:item["money"] = Nonetry:# 成立日期item["establish_date"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[6]/td[4]//text()").extract()[0].strip()if item["establish_date"] == '-' or item["establish_date"] == '正常' or item["establish_date"] == '暂无':item["establish_date"] = Noneexcept:item["establish_date"] = Nonetry:# 登记状态item["register_status"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[2]/td[4]//text()").extract()[0].strip()except:item["register_status"] = " "try:# 统一社会信用代码item["code_or_registration_no"] = \response.xpath("//table[@class='zx-detail-basic-table']//tr[4]/td[2]//text()").extract()[0].strip()except:item["code_or_registration_no"] = " "try:# 企业类型item["type"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[7]/td[2]//text()").extract()[0].strip()except:item["type"] = " "try:# 核准日期item["approval_date"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[8]/td[4]//text()").extract()[0].strip()if item["approval_date"] == "-":item["approval_date"] = Noneexcept:item["approval_date"] = Nonetry:# 登记机关item["register_organization"] = \response.xpath("//table[@class='zx-detail-basic-table']//tr[6]/td[2]//text()").extract()[0].strip()except:item["register_organization"] = " "try:# 所属区域item["area_id"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[8]/td[2]//text()").extract()[0].strip()except:item["area_id"] = " "try:# 营业期限自item["operating_period_start"] = \response.xpath("//section[@id='Cominfo']//table//tr[7]/td[4]//text()").extract()[0].strip().split("至")[0].replace(" ", "")if item["operating_period_start"] == "***":item["operating_period_start"] = Noneexcept:item["operating_period_start"] = Nonetry:# 营业期限至item["operating_period_end"] = \response.xpath("//table[@class='zx-detail-basic-table']//tr[7]/td[4]//text()").extract()[0].strip().split("至")[1].replace(" ", "")if item["operating_period_end"] == "无固定期限":item["operating_period_end"] = Noneexcept:item["operating_period_end"] = Nonetry:# 住所item["address"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[9]/td[2]//text()").extract()[0].strip().split("查")[0]except:item["address"] = " "try:# 经营范围item["business_scope"] = response.xpath("//table[@class='zx-detail-basic-table']//tr[10]/td[2]//text()").extract()[0].strip()except:item["business_scope"] = " "item["name"] = response.xpath("//span[@class='entName']//text()").extract()[0]# 注册资本(币种)item["money_currency"] = None# 经营者item["business_ower"] = None# 组成形式item["establish_form"] = None# 创建时间item["create_date"] = time.strftime('%Y-%m-%d', time.localtime(time.time()))# 修改时间item["update_date"] = time.strftime('%Y-%m-%d', time.localtime(time.time()))# 空置率item['empty_ratio'] = None# 注销日期item["logout_date"] = None# 吊销日期item["revoke_date"] = None# 注册日期item["register_date"] = None# 数据当前状态item["data_status"] = 1# print(item)yield item在这里插入代码片

3.和企查查的类似,通过企业获取到企业id,然后去爬取。
4.部署完爬虫项目,每天的数据量,大概20万左右。
5.希望大家一起学习进步。qq:763073105

这篇关于python抓取百度企业信用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/235412

相关文章

Python将博客内容html导出为Markdown格式

《Python将博客内容html导出为Markdown格式》Python将博客内容html导出为Markdown格式,通过博客url地址抓取文章,分析并提取出文章标题和内容,将内容构建成html,再转... 目录一、为什么要搞?二、准备如何搞?三、说搞咱就搞!抓取文章提取内容构建html转存markdown

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

Python Websockets库的使用指南

《PythonWebsockets库的使用指南》pythonwebsockets库是一个用于创建WebSocket服务器和客户端的Python库,它提供了一种简单的方式来实现实时通信,支持异步和同步... 目录一、WebSocket 简介二、python 的 websockets 库安装三、完整代码示例1.

揭秘Python Socket网络编程的7种硬核用法

《揭秘PythonSocket网络编程的7种硬核用法》Socket不仅能做聊天室,还能干一大堆硬核操作,这篇文章就带大家看看Python网络编程的7种超实用玩法,感兴趣的小伙伴可以跟随小编一起... 目录1.端口扫描器:探测开放端口2.简易 HTTP 服务器:10 秒搭个网页3.局域网游戏:多人联机对战4.

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

Python使用自带的base64库进行base64编码和解码

《Python使用自带的base64库进行base64编码和解码》在Python中,处理数据的编码和解码是数据传输和存储中非常普遍的需求,其中,Base64是一种常用的编码方案,本文我将详细介绍如何使... 目录引言使用python的base64库进行编码和解码编码函数解码函数Base64编码的应用场景注意

Python基于wxPython和FFmpeg开发一个视频标签工具

《Python基于wxPython和FFmpeg开发一个视频标签工具》在当今数字媒体时代,视频内容的管理和标记变得越来越重要,无论是研究人员需要对实验视频进行时间点标记,还是个人用户希望对家庭视频进行... 目录引言1. 应用概述2. 技术栈分析2.1 核心库和模块2.2 wxpython作为GUI选择的优

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

Python+PyQt5实现多屏幕协同播放功能

《Python+PyQt5实现多屏幕协同播放功能》在现代会议展示、数字广告、展览展示等场景中,多屏幕协同播放已成为刚需,下面我们就来看看如何利用Python和PyQt5开发一套功能强大的跨屏播控系统吧... 目录一、项目概述:突破传统播放限制二、核心技术解析2.1 多屏管理机制2.2 播放引擎设计2.3 专