Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

2023-10-30 14:50

本文主要是介绍Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

你看到文末,肯定不会失望的

这一个多月以来,相信大部分人都跟我一样:早上打开手机的第一件事是看有关疫情的最新新闻,看今日有没有新增人数,新增了多少。眼看着数据从一开始的几十发展到现在的快8W,渐渐地数据在我们眼里就只是一串数字。

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

我们从数字中、新闻报道里都可以看出它的严重性,但是,如果我们通过数字仔细观察每一个患者的经历,真实的惨烈程度总是可以超乎我们的认知。其中,微博“肺炎患者求助”超话上的求助者经历,便是这场疫情惨烈程度的一个缩影。

到底哪些人会在“微博超话”这个原本的追星聚集地来进行求助呢?他们是否都得到了帮助?从求助到获得帮助,他们都经历了什么,等了多久?

一、Python爬取

这些数据怎么来?那肯定是只能通过python爬虫来获取(前提是不要获取别的东西,否则....),具体的过程我这里就不赘述了,有需要的可以看到文末自取。

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

我们获取了微博“肺炎患者求助”超话上的1055条求助信息(时间节点:2020年2月20日23时),并且对这些求助的患者求助时的状况、是否得到救助、得到救助的时间等信息进行了进一步的数据整理,去掉重复数据后得到638条数据,来解答以上的问题。

二、怎么分析

python可以进行数据分析吗?完全可以!

其实,Python这种伪代码性质的语言入门并不难,但是深入进去就不是什么简单的事情了,而且Python语言不能加密,但是目前国内市场纯粹靠编写软件卖给客户的越来越少,网站和移动应用不需要给客户源代码,所以这个问题就是问题了。

有什么东西能和python结合呢?于是我想到了BI工具!

BI工具的话,简单上手、灵活快捷,尤其敏捷BI,是不需要代码建模的。举个例子,FineBI等敏捷自助式工具,傻瓜式的操作很适合现在的数据分析小白入手,就算是掌握了R这种编程语言,也很适合拿来做分析工具。

关于FineBI,可能很多小伙伴或多或少了解过这款BI工具,这是目前市面上应用最为广泛的自助式BI工具之一,类似于国外的Tableau等BI分析工具,但FineBI在协同配合,数据权限上,能更好的解决国内企业的情况。

  • 你可以把它视作为可视化工具,因为它里面自带几十种常用图表,以及动态效果

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

  • 你也可以把它作为报表工具,因为它能接入各种OA、ERP、CRM等系统数据,各种数据库简直毫无压力,不写代码不写SQL就能批量化做报表
  • 你还可以把它看作数据分析工具,其内置等常见的数据分析模型、以及各式图表,可以借助FineBI做一些探索性的分析

有了这一款工具之后,IT部门只需要将数据按照业务模块分类准备好,业务部门即可在浏览器前端通过鼠标点击拖拽操作,就能得到自己想要的数据分析结果。

三、数据可视化结果

以下所有都是为FineBI分析,我从开始做到结束,只用了3分钟的样子,自带ETL,就是这么快!

1、哪些天求助的人最多?

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

可以看到,2月4日到2月7日为这些患者集中在网上求助的时间,其中求助最多的是在2月5日。这个时间刚好跟爆发的数据相吻合。

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

新增确诊趋势

2、哪些人在微博求助?

在全国的救助力量都投入到一个地区之后,到底是哪些人会采用“微博”这个社交平台,并且在“微博超话”这个粉丝们用来追星的地方来进行救助呢?

我们对求助患者的年龄进行了统计,发现50岁以上的中老年人占了绝大多数的比例(81.9%)。

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

图片来自于网络

在微博上求助的人,更倾向于年龄大的患者。然而,年龄大的患者怎么会在微博超话上求助呢?我们对求助患者的信息进行统计,发现只有3.4%的求助信息是患者本人通过微博发出来的,有95.3%的求助信息都是别人代发的。

也就是说,这些老人因为信息不通畅、行动不方便等原因,只能由小辈帮忙发求助信息。

3、求助者多为重症患者,且带有基础疾病

他们在求助时的自身状况如何呢?我们从求助信息中提取出了这些求助者所描述的病症。

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

可以看到,“发烧”、“呼吸困难”、“咳嗽”、“乏力”、“胸闷”、“腹泻”、“呕吐”等都属于高频词汇,其中求助信息中出现“呼吸困难”症状的患者占了35.8%,有呼吸问题的患者占了48.2%。

这说明微博上的这些求助者多是危重症患者。另外,从这些患者的救助信息中可知,有21.1%的患者还带有“高血压”、“糖尿病”、“心脏病”、“冠心病”、“肾衰竭”等基础疾病。

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

4、他们等了多久?

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

从之前的察觉患病到最终获救,总共平均的时间是13天

在这13天里,患者们以及患者的家人们到底经历了什么样寻求治疗的过程,遇到了多少的碰壁最后才得到救助呢?几乎每份求助信息中的患者“病情描述”都可以告诉我们答案。我们把患者的描述制作成了词云图,里面的每一个字,都写满了沉重和无奈。

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

5、是否每位求助者都得到了帮助?

在微博上求助的效果怎么样呢?从转发效果上看,即使有40%的微博求助者,其微博的粉丝数都小于50人,甚至有21.4%的求助者是为了求助刚注册了微博的微博新人,仍然有57.2%的微博获得了超过10次以上的转发,有30%的微博获得了超过50次的转发。

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

然而,最终这些求助者是否获取到了救助,才是救助的最终意义。根据我们的统计发现,只有26.5%的求助者最终在微博上反馈得到了救助。

所以,并不是每一位微博求助者都幸运地得到了帮助。由于病情的发展,一部分患者在没有等到救助之前,便凋零了。

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

 

Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了

 

四、总结

以上便是这些微博求助者在微博上求助的经历。这些数据背后的每一位救助者,都是承受者,他们是每一位平凡普通的人,他们有的等来了救助,有的没有。

 

这篇关于Python爬取+BI分析后,微博求助患者的眼泪,全被数据看见了的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/308686

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal