本栏紧密结合自己的采用者快速增长公益活动实战经验,撷取了附注——统计数据化观念的价值、切实可行的分析业务流程、项目中统计数据极度的监控、摸查、处置。
统计数据挖掘是做采用者快速增长的几项基本专业技能,然而每晚想好好自学下,看到的资源不是7天精通Excel就是20天高阶SQL,班莱班县Python乌兹县必会……
工欲善其事工欲善其事,的确要说,但辅助工具也是为具体目标而服务的嘛。为了自学专业技能而自学专业技能只会更加恐惧。
那么难题来了,对于大部分爸爸妈妈到底要把统计数据挖掘教给什么程度呢?
这那哥是我根据统计数据挖掘专业技能,采用振幅和自学生产成本画的,里头Excel在采用振幅上假如是采用的最多的,可能每一人每晚单厢关上Excel;基础操作我们假如单厢,繁杂许多的腾讯呵呵教程花个四分钟也能做出来。
Excel能解决80%的统计数据挖掘难题,剩的假如亦然低频市场需求,能采用辅助工具或者叙述确切市场需求让技术爸爸妈妈帮处置。
假如是许多非常低频的统计数据营运&产品岗,还是Thoubal呵呵有关编程语言的,但Excel假如统计数据挖掘中高性价比最高的辅助工具了,第一集该文中的统计数据挖掘辅助工具也主要就以Excel 为主。
责任编辑主要就分为三个部分,总的来看:
由于字数非常有限,责任编辑不能牵涉太多Excel基本功,不过这里给我们所推荐两本有关书刊《谁说红人不能统计数据挖掘》。
这两本书在Excel基本功方面讲的很全面性,我们没事能翻两遍,不必故意去梦境,脑海中约莫有位第一印象,碰到难题知道在这儿搜寻就好。
统计数据化观念的价值
(1)统计数据让我们更了解用户
从项目角度来看:“统计数据让我们更了解采用者”。
在线上很多时候就像一个黑盒子,我们不知道采用者在里头做什么,而通过统计数据就像把盒子里头装了监控一样。
通过统计数据可把这个盒子变得透明化,统计数据越全盒子越透明。但是考虑到生产成本,一般只做关键事件的埋点、关键页面访问、关键按钮点击。
通过统计数据我们能发现采用者在这个黑盒子里头碰到的难题——如发现转化率低,那么是不是采用者碰到了障碍不知道怎么操作,还是决策门槛太高了?
从个人成长方面,统计数据化观念也是一个很好的辅助工具,叮当在刚开始做采用者快速增长项目时很恐惧。
(2)从统计数据中发现难题,提高成长效率,指导决策
小叮当的48个“金币”:把一天的时间每半个小时分为一个模块,每晚记录在各时间段做的事件类型,每周进行汇总分析
从个人成长方面,统计数据化观念也是一个很好的辅助工具,叮当在刚开始做采用者快速增长项目时很恐惧。感觉每晚都很忙,经常11点,甚至凌晨下班,但是又感觉自己好像什么都没有做。
然后就整理了一个表格以半小时为一个单位记录自己在做的事情,周末汇总生成图表。
分析了几天发现了两个难题:
一感到压力就想拖延,拿起手机刷朋友圈。大部分时间都在建公益活动群和管理志愿者,写文案。后来就想了两个解决方案:
特别注意,每晚自己想拖延拿起手机刷朋友圈的话就把手机丢到抽屉里。梳理每一事件的业务流程+计时,优化建群的业务流程和志愿者管理协作业务流程。在项目中的统计数据挖掘,一般能分为两部分:一般的统计数据挖掘(从统计数据埋点,收集,清洗,分析……)和项目中的统计数据极度情况处置。
一般统计数据挖掘中比较偏向静态,基于我们设计好的方案,去搭建统计数据挖掘模型;应用场景更多是从0到1,或者阶段性根据统计数据挖掘调整方向。极度处置是动态的,更多是基于项目中的实际难题出发去解决难题,中间也会有更多我们没有考虑到的点需要探索。统计数据挖掘业务流程
静态的统计数据挖掘业务流程挺像是黄金工艺品的诞生过程:
做统计数据挖掘我们首先要明确目的和思路,就像淘金一样,首先要先找到矿脉。
基本业务流程是:确定目的,定义指标,拆解指标,构建模型。
确定目的:你是想了解这些统计数据的情况呢(基础指标),还是想根据这些统计数据验证许多想法(复合指标,及指标背后的采用者行为)明确目的才好定义要分析的指标。定义指标:一般数据指标分3种类型(维度,基础统计数据,复合统计数据)对于基础指标能直接统计。拆解指标:复合指标则需要拆解(一般采用者公式法和拆解影响因素)。构建模型:模型是指能够对事物产生重要影响的关键要素组合而统计数据模型就是你这样项目中需要的关键统计数据,一般我会先梳理采用者路径的业务流程统计数据,然后再把其他的关键统计数据加上(如红包统计数据)。(简单统计数据模型)
(拖动时间轴图表中的统计数据会变化)
(常用指标定义)
不同的团队,不同的人对指标的定义也不一样,在写埋点文档或者统计数据挖掘报告的时候一定要备注“指标定义”。
这个步骤也就是统计数据统计,以下是常用的3种统计数据统计方式:
能直接看到的能手动整理,当然这种是比较慢的。第二种是通过辅助工具提高下效率(如建群宝,WeTool……),也能通过渠道码统计到许多直接看,看不到的统计数据。最后就是统计数据埋点了,假如上一步构件好统计数据模型的话,这里直接把需要的有关统计数据给到技术就好了。挖完矿挖到的原矿石肯定不能直接丢到炉子里吧,这里需要做下简单的处置。
统计数据处置一般分为清洗,转化,提取,计算,这4个部分。
统计数据清洗是为了保证统计数据的有效性,经常碰到的就是统计数据中没事值的难题。
可能是在统计的时候没有考虑到,或者是因为其他原因丢失了。
这时候假如与这个空值互相影响的统计数据比较全的话能通过计算得到,但是假如不全的话只能去掉了;或者得出的值只能做一个参考。
统计数据转化主要就是转化格式,单位……确保这些是统一的。
上图中的统计数据是之前做的一次红包公益活动统计数据,技术导出统计数据后,叮当怎么算都觉得不对,问了呵呵才知道,原来技术给的统计数据是以“分”为单位的,而叮当是按“元”计算的。
统计数据转化:统计数据比较少的时候直接框选就能了,统计数据比较多的时候能采用者透视表提取需要的统计数据。
最后牵涉到复合统计数据的能根据公式计算(加减乘除能解决大部分难题)。
文不如表,表不如图,把统计数据视觉化,更容易让人理解,也更加容易感知到价值。
就像黄金一样,一个同样重量的金块,锻造成工艺品,肯定比单纯的金块给人的价值感更强。
统计数据极度处置
最后就是关于统计数据极度的处置这一块了。
1)活
动上线&渠道推广后2小时注意看客服会话消息,只要有采用者反馈入口的地方都每一几分钟看呵呵,上线过了这几个小时之后能降低点查看的振幅,不过也要注意盯着。
上面这个截图就是,中间上线期间通过采用者反馈,发现一点技术小Bug,及时处置了,没有造成推广流量的浪费。
2)监控统计数据模型中的核心统计数据极度
假如时间的确忙不过来,或者上线比较急没有搞好准备能优先监控核心统计数据(如:红包类的公益活动获客生产成本就亦然常核心的统计数据)。
“评估”就是评估统计数据极度影响程度。假如影响比较大就暂停公益活动及时止损;假如影响比较小,就暂停其他的推广动作,摸查原因。
如图:这个是,公益活动刚上线40分钟碰到了羊毛党辅助工具支付接口,四分钟被撸走将近100+元,发现难题后,叮当立刻就把公益活动下线,同时让技术做接口攻击拦截。
如图:在公益活动期间采用者给我发截图,采用者开了几个1毛的红包,账户里才增加3分钱。
然后我赶紧查了下采用者列表,这个时间段的采用者信息,发现约莫20个左右的采用者是这样的。
跟技术反馈了下,技术说是这里单位除了点小难题,十几分钟就能改好,然后改完后就给这几个采用者一个人补了4毛钱。
很多时候在摸查原因的时候就能找到难题,设计方案,假如还找不出来的话,能通过拆解指标来挖掘难题。
上图是叮当在2019年1月做的一次红包拉新红包,上线后通过内部渠道推广平均一个老采用者能带16~20新采用者。
1月24号开始投放许多外部的小程序渠道,但发现投放之后采用者快速增长并没有太大变化。
后来就通过渠道,推广时间,红包金额,公益活动路径简单拆解了这个统计数据极度的难题。
如:之前一个公益活动支付接口被攻击下线调整,再次上线后叮当就计算出一个采用者一天之内可能获得的最大红包金额,在商户号中设置“大额出款提醒”一旦单个采用者提现金额超过这个数值,就能在微信收到模板消息提示及时处置。
以上业务流程只是给我们许多思考的方向,并不是每晚都需要把业务流程全部走完的。
作者:小叮当v2.0,前零一裂变采用者快速增长项目负责人。最近在找电商平台或者教育行业的采用者快速增长方向工作,坐标深圳,微信zxxp153。
责任编辑由 @小叮当v2.0 原创发布于人人都是产品经理。未经许可,禁止转载。
题图来自Unsplash,基于CC0协议