六步搭建数据化运营知识体系

2023-10-13 22:20

本文主要是介绍六步搭建数据化运营知识体系,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


六步搭建数据化运营知识体系

数据化运营的概念随着大数据时代的到来被炒得越来越火热,提到数据分析、数据运营让很多产品、运营新人觉得瞬间高大上很多。随着数据概念的火热,如增长黑客、GrowingIO等一系列的数据分析指导产品增长的书籍、产品变得越来越受人追捧。对于互联网行业来说,无论是产品经理还是运营,都需要具备一定的数据运营能力,本文将帮助没有数据化思维的小伙伴搭建基础的数据化运营体系。

本文会按照上图中的数据化运营业务流程进行分析,从明确目标、数据指标制定、数据获取、数据分析、形成策略、验证优化这六个方面来搭建数据化运营的知识体系。

一、明确目标

任何一次有价值的数据运营行为都是由目的性的,这个目的可以是短期、一次性希望达成的目标,也可以是长期性、周期性希望达成的目的。无论如何一定要有目标,目标指导数据运营的思路和方法。

1.1数据化运营的本质

这里先抛出数据化运营的本质:数据化运营的本质是对用户的运营,数据都源自于用户的属性和行为。

为什么数据化运营本质是用户运营?拿增长黑客中海盗船模型来说,产品生命周期全过程就是一个用户获取、用户活跃、用户留存、付费转化、口碑传播的闭环流程。这流程中每一个节点其实都是对用户行为的激发以完成每一个阶段的目标。产品所获取的数据也都是用户使用产品生产的数据,所以数据化运营的本质就是通过用户行为分析指导产品成长。

1.2数据化运营的目的

上面提到每一次数据运营任务都要有目的性,那么根据数据运营场景划分,大致可分为以下4种:

1.针对具体某一指标进行数据化运营

这种情况往往出现在boss要求短期内实现数据指标量级上的一个跨越,如新增用户达到100万、活跃率达到30%,留存率达到20%、转化率达到5%等等。

这类数据化运营目的是短期或一次性的,通常通过对数据分析找到用户刺激方式,如活动等让产品短期内迅速达到指定目标。

2.掌握产品生态

掌握产品生态指将数据运营应用到日常工作流程当中,当做日常生产流程中的一部分。这样做的目的主要是通过数据沉淀、数据分析了解产品的用户群有哪些,用户分类是什么情况,利用产品对用户的精细化运营。

此外还有一个目的就是了解产品生态的上下游,如上游用户获取情况,下游用户的转化和分发情况,对于平台类产品或需要上下游业务支撑的产品来说,对于产品后期发展有很大的价值。

3.发现潜在方向

大数据时代,尤其是大数据产品的需求发现往往是通过数据分析结果发现用户需求,从而衍生出来解决用户需求的产品。所以,有些情况下通过对数据的分析可以发现更多用户没有通过表象展现出来的问题和痛点。拿数据挖掘中经典的啤酒尿布案例来说,就是通过对用户购买数据的关联性分析,从而发现了尿布和啤酒两个看似毫无关系的物品之间的潜在联系,从而通过一定的运营策略提升两者的购买量。

所以通过数据化运营,也可以找到用户的潜在需求,从而诞生一款解决用户问题的新功能或新产品。

4.通过问题解决问题

某婚恋网站近期有大量用户投诉有女性用户作为酒托卖酒,作为产品的负责人,需要去解决酒托用户问题,减少用户投诉。那么如何通过举报的女性用户去定位更多的酒托呢?

首先通过问题去定位数据,找到被举报的酒托用户行为数据和属性,发现这类用户近期频繁添加大量男性用户,每次同时与多个男性用户同时聊天,并且聊天时间较短。结合用户行为及用户属性,从用户数据库中定位疑似酒托用户,再通过数据监控去识别是否为真实酒托。

上述这个案例就是通过问题去定位数据,通过数据运营找到解决问题的方法,从而更好的解决问题。

二、数据指标制定

2.1明确指标

在这里要区分宏观指标和可行动指标的区别:

宏观指标,通常是boss或leader提出的指标,这类指标一般没有可执行性,如leader分配任务要求你本月让产品盈利20万。这个指标并没有实际指导价值。

可行动指标,通常是可以执行的指标,如通过微信引流新用户10万,提升付费转化率到5%等,这些是可以找到具体执行策略的指标。

在日常工作当中会经常遇到将宏观指标转化为可行动指标的问题,所以用什么方法去对指标进行转化就成为了核心问题。这里推荐使用OKR指标拆解法,通过OKR体系,将宏观指标进行拆解,分解成一个个可行动指标,通过对可行动指标的达成,最终达成宏观指标要求。关于OKR指标拆解方法可参考网上结构化思维的相关介绍。

2.2指标构成

本文对常用的数据指标进行了总结和分析,请注意本文提出的所有数据指标都是基于常用和大众的数据指标,根据不同的产品和不同业务请具体指标具体分析,不要盲目照搬套用。

1.基础指标

基础指标体系参考了AARRR模型的五个阶段,

拉新:新用户注册数

活跃:用户登录数(日、周、月)

留存:流失用户数(日、周、月)

转化:付费用户数

传播:分享用户数(微信分享、微博分享等,具体参考产品分享功能设计)

2.用户属性

用户画像,依据用户属性和用户行为构建的用户画像,用户画像的目的是分析用户行为特征,对用户进行分类,精细化运营用户。对于社区产品可以有针对性的运营KOL用户,对于电商产品可以对用户做精准化推荐。

终端画像,这里的终端特指移动智能终端即智能手机,通过对用户群终端分析,了解用户群构成,如操作系统、手机型号等,更利用发现用户行为偏好。

3.用户来源

渠道分布,用户通过哪个渠道下载了APP,登录并注册APP。

渠道效果,每个渠道的获取用户数,转化成为注册用户的数量,判断渠道获取新用户质量好坏。

版本分布,用户使用APP不同版本的用户占比,通过分析可以判断产品版本更新后是否出现造成用户体验过差的问题。

4.用户行为

用户参与度,用户访问页面时间,频率等。

行为路径,即用户完成某一个任务时经过了哪几个页面,做了哪些操作。

自定义事件,根据产品需求,对某一个特定的用户事件进行数据统计分析用户行为。

基于业务的漏斗分析,常见于电商用户行为分析,从用户登录到最终支付的用户流失情况,判断在哪个环节出现问题以及时优化。

三、数据获取

明确目标,定义好需要分析的数据指标后,那么下一步就是依据数据指标提取数据了。产品在上线后会不断积累、沉淀用户的注册、登录、使用等各个维度的数据。在数据获取阶段要做的就是采集需要的数据,并且对数据进行处理已达到可以用于数据分析的效果。

3.1数据采集

数据的来源主要有两种,一种是通过数据埋点,然后提取相应的数据字段。另一种是通过用户的使用日志文件分析用户数据及用户行为。

埋点业内有两种方式,一种是在产品设计阶段通过提交相应需求由研发团队设计底层数据模型时将需要在产品上线后特别注意的数据字段进行标识。另外一种则是通过第三方统计平台,如GrowingIO等,这些第三方统计平台利用前端技术可以统计到大部分用户行为数据,减少产品自身开发和改造,但是对于个性化的数据分析需求还需要通过产品底层的设计来满足。

用户使用日志即用户登录产品后每一次操作都会被记录下来,保证用户的使用行为可以查询,同时针对用户的一些误操作可以通过日志文件进行恢复。

3.2数据处理

为什么要做数据处理?有一点数据挖掘经验的人可能会了解,实际生产环境下产生的数据并非是理想状态下的,可能某一条记录某一个字段因为系统或人为原因造成了缺失,对于数据的不完整性也可能导致数据分析结果的不准确性,所以在数据分析前要对采集到的数据进行数据清洗和数据预处理。(如果对数据处理感兴趣可以参见专业数据挖掘书籍中关于数据处理的章节,如《数据挖掘导论》)

1.数据清洗

数据清洗指对采集的不规范数据进行清洗,如对数据存在缺失的进行填充,对于数值性数据比较常用的方法就是选取数据前后若干天的数据取平均作为缺失数据值进行填充。其他可能出现数据不规范的现象还有很多,如对于用户年龄字段数据采集时发现个别用户年龄字段数值大于了100,就需要通过数据稽查去发现问题所在。

2.数据预处理

原始数据与数据分析需要的数据维度可能会有所不同,比如采集到的原始数据是按照天进行汇总的,但是数据分析需要的是按月汇总的数据。那么在进行数据分析前,就需要将每个用户的日数据进行汇总,得到每个用户的月数据后才能进行分析。

四、数据分析

4.1数据分析框

专业的数据挖掘算法有很多,如关联分析、聚类分析、神经网络等等。在这里不过多介绍,只是结合产品、运营日常工作场景介绍几种常见的分析框架。

1.用户画像洞察

用户画像洞察是通过对用户数据的聚合,将数据转换成形象化的虚拟用户模型。通过用户画像展现具有某一类特征的用户群体。将用户群依据用户画像进行分类,为精细化用户运营提供数据支撑。

同时通过对用户画像的构建也有利用产品经理、运营把握用户。在进行功能迭代和活动运营时,可以有针对性的制定策略,提升效率。

2.用户行为分析

用户行为分析中最常用的就是漏斗分析模型,即用户在完成某一项特定任务时要经过多个步骤,在每一个步骤中都会产生用户流失,为了保证更多用户顺利完成任务,通过对漏斗模型的分析发现问题所在,优化关键步骤的用户体验,达成最终目标。

上图中拿电商类产品和内容类产品作为举例,一个用户在成功购买某件商品或成功消费完某一内容前要经过很多步,这其中每一个环节都会造成用户的流失。所以在进行漏斗分析时,可以观察用户在哪一个环节流失最为严重,然后针对相应环节进行分析,找到对应的解决方案,提升用户的转化率。

3.用户行为分析

对用产品新上线的功能模块,可以通过用户行为分析来验证新功能的好坏,使用用户体量有多少,用户在使用时是否在某些环节产生困扰,通过用户行为分析来验证功能效果好坏。

在对用户行为分析时,要根据产品的具体业务流程设计分析方法,结合业务场景才能更多的发现问题。

上述介绍的三种数据分析框架是最基础的,对于非专业领域的数据分析挖掘来说,数据分析方法首先要结合产品的业务场景,根据具体业务指导分析方法和分析流程。如果想达到好的分析效果,还要结合自家产品制定个性化数据分析方案。

4.2数据可视化

数据分析的结果往往都是枯燥的,无法让领导或执行同事清晰理解,所以需要对数据分析结果进行可视化处理,让领导明白数据分析的结果是什么,让同事明白根据分析结果如何进行下一步工作。

1.可视化方式

根据数据类型以及展现形式的不同,可视化方式有展现时间关系的时序图;展现占比的饼状图;展现数据分布的柱状图等等。可参考《谁说菜鸟不会数据分析》、《深入浅出数据分析》等入门书籍。

2.可视化工具

简单的数据分析工作用Excel就可以完成,复杂一些的有SPSS、Tableau等专业化数据分析工具。这里还推荐一个Echarts,这本是一个前端图表框架,但是简单易用,通过对应的图表模板,只需要将数据导入框架模板即可生成可视化图表。

4.3数据报告

数据报告是对数据分析任务的总结,向上对领导汇报,向下与同事共同制定策略完成下一阶段任务。

所以根据看报告的用户不同,需要有针对性的调整其中部分内容。数据分析报告大致需要以下几个内容:

  • 分析背景
  • 目标数据源选取
  • 数据分析方法
  • 框架数据可视化
  • 数据分析结果&建议

本着具体问题具体分析的原则,根据数据分析报告的目的进行个性化完善。

五、形成策略

策略的制定取决于数据化运营的目的和数据分析的结果,通过目的和结果形成针对性的策略。

这方面每一次数据分析形成的策略都不一样,所以在这里不再进一步展开,根据具体问题以及具体的业务场景制定有效策略即可。

六、验证优化

如同精益创业中MVP理论一样,数据分析的结果生成的策略并非一定有效, 并不一定可以快速达到预期效果。

在策略执行的同时,通过数据的积累沉淀,监控相应数据指标情况,对策略进行优化,已达到最终的目的。

以上为数据化运营知识体系的六个组成部分,通过上述六个方面构成了数据化运营业务流程闭环。需要注意的是,任何数据化运营任务都要以业务为导向,依据具体业务场景选择数据分析思路、方法。切忌,不要为了数据分析而数据分析,数据分析一定要源于业务。 


本文作者:记小忆

来源:51CTO

这篇关于六步搭建数据化运营知识体系的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/206232

相关文章

Java架构师知识体认识

源码分析 常用设计模式 Proxy代理模式Factory工厂模式Singleton单例模式Delegate委派模式Strategy策略模式Prototype原型模式Template模板模式 Spring5 beans 接口实例化代理Bean操作 Context Ioc容器设计原理及高级特性Aop设计原理Factorybean与Beanfactory Transaction 声明式事物

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3