《首席增长官》用数据驱动增长

 

 

 

数据驱动,作为当下互联网新业态下的新趋势,已经越来越被大家熟知和认可,虽然早期的互联网就已经有关注数据统计,但是由于早期的互联网发展迅速,不看数据就很容易获得大量增长,因此对于数据驱动并没有形成一个体系框架,海量的数据也并有被真正利用起来。但是随着人口红利消退,流量红利不断萎缩,用户也从原来被动接受信息到主动选择产品,使得增长变得越来越缓慢,成本也越来越高,利用数据驱动增长已势在必行。

17年3月23日,可口可乐撤销首席营销官,设立首席增长官,这是针对未来驱动业务增长的核心动力和规则改变的全新认识和新的人事布局。首席增长官不只是一个加强版的首席营销官,也是增长黑客的进阶,他需要以不断变化的顾客需求为核心,将市场、产品、运营和客户服务通过一体化战略的方式整合到一起,来共同推动公司增长。

从增长黑客到首席增长官需要经过三个阶段,

  • 阶段一,增长黑客,在问题和解决方案匹配期,主要是调研客户的需求;在最小可行性产品时期,寻找若干种最小可行性产品的建立方法;
  • 阶段二,增长团队,除了第一阶段要完成的事情以外,还要在产品和市场匹配期考虑提升用户黏度和体验期;在渠道和产品匹配时期,协调首席增长官对高优先级的渠道进行大规模的投入;
  • 阶段三,首席增长官,全程跟进,另外在成熟期,首席增长官在成熟期需要考虑并购、国际化和本地化。

那么在这期间如何运用数据来驱动增长呢?首先,要建立一个增长框架,增长框架的方法论包含两部分,分别是学习引擎模型和用户增长模型,如下图所示,两者相互独立又融为一体。

增长框架学习引擎包括计划、投入、衡量、分析和优化,是指用数据驱动的方式在设计、生产、观测、改进和不断快速迭代的循环过程中产生不断促进业务增长的原动力。每一个流程都是必须的,并且要始终按照给定的顺序执行。“计划”的目的是清楚地阐明业务问题、目标、潜在资源、项目范围,以及高层项目时间表;“投入”是指确定增长渠道并进行投入;“衡量”的目的是建立起客观的衡量体系来对增长进行定量考量,从而确定项目是否能按计划运行;“分析”的目的是识别、验证并作出合理可执行的推荐方案;“优化”是综合已获取的信息来不断找出进一步提高团队效率和业务指标的过程。

用户增长模型也就是我们常说的“漏斗转化模型”,也叫“AARRR模型”(见下图),AARRR分别代表用户生命周期的五个阶段:获取用户,激活用户,用户留存,用户营收,用户推荐。用户生命周期这五个阶段的演变也是用户价值不断进阶的五个阶段,每个用户阶段的行为可衡量,出现问题可行动。可以通过监控这五个模块的指标,发现用户转化过程中的薄弱点,通过针对性的转化优化,实现用户增长,同时也可以基于这几个阶段的问题思考来制定增长策略。

回到用数据驱动增长这个话题,想要通过数据分析问题并得出结论。首先,要有明确的、正确的增长目标,这个目标我们称之为“北极星指标”,它指引着全公司上上下下想着同一个方向前进。所以找到公司的北极星指标,是做增长的第一步,也是至关重要的一步。那么如何让找到这个正确的北极星指标呢?这个过程不是一蹴而就的,可能需要多次的尝试和踩坑。在确定这个北极星指标之前,把你脑子里有的指标列出来,然后问自己几个问题来帮助自己找到大概的方向:

  • 产品核心价值是什么?可以让你知道你的用户体验实现了这种价值吗?
  • 这个指标能够反映用户的活跃程度吗?
  • 如果这个指标变好了,是否能说明你的整个公司是在向好的方向发展?
  • 整个指标是不是很容易被你的整个团队理解和交流?
  • 整个指标是一个先导指标还是滞后指标?
  • 这个指标是不是一个可操作的指标?

指标代表了管理层对用户价值和公司成功关系之间的理解,也会指导每个基层员工在日常工作中的每一次决策和执行。如果一个指标,你什么也做不了,那它对你来说相当于不存在。

找到了正确的数据指标后,就要采集数据为分析做准备了。那么如何采集数据呢?从数据组成角度来说,一个完善的闭环数据源主要是分为三大块:第一块是用户行为数据,第二块是用户信息和CRM数据,第三块是交易数据和服务端日志数据。第三块数据通常被存储在离线数据库中并且通过ETL来获取分析,行为数据和日志数据很多时候都是近似的。完但是完备的用户行为数据基本能覆盖绝大多数的服务端日志数据,同时里面包含着很多日志数据所缺乏的信息。既然用户行为数据这么重要,那么我们该怎样去采集和获取呢?下面介绍两种数据采集方式:埋点和无埋点。

埋点采集数据,一种非常传统、非常普遍的方式就是通过写代码去定义这个事件。所有通过代码来详细描述事件和属性的方式,统称为“埋点”。埋点采集数据的过程一般分为以下七个步骤:

埋点采集到的数据非常精准,但是埋点采集数据会比较依赖经验导向、且沟通成本高、需要花费大量时间数据清洗、并有可能发生数据漏采错采,可能一不小心一段时间的工作的就白做了,又得从新开始,还错过了很多数据。因此,为了降低“人工”错误,推出了“无埋点”数据采集方案。

无埋点采集是用机器人来替代人的经验,实现自动化采集,因此从分析流程的源头开始就要控制数据格式。所有的数据,从业务角度出发,划分为5个维度:who,行为背后的人,具有哪些属性;when,什么时候触发的这个行为;where,城市地区浏览器甚至GPS等;what,也就是内容;how,是怎样完成的。这样一来,保证了数据从源头开始就是干净的,在此基础上,我们完全可以把ETL自动化,需要什么数据可以方便回溯,任何角色都可以使用可视化工具来查询和分析数据,所见即所得。

通常情况下,为了获取完整的用户行为数据,会使用无埋点和埋点相结合的方式去采集数据。无埋点采集过程数据,埋点采集结果数据,二者结合将用户的行为数据和业务数据并打通连接,帮助市场、产品和运营分析获客、转化和留存,实现用户的快速增长。

当我们投入了大量的时间和资源,建立了一套完善的数据技术,拿到了我们想要的数据后,必须思考:数据本质的价值究竟在哪里?从这些数据中,我们可以学到什么?也就是说我们接下来要进行数据分析、数据挖掘,找到他们的价值并完成增长。下面介绍数据分析的一些思维和思路,以及方法论。

数据分析的4个阶段:

 

数据分析的EOI框架:

数据分析的 3 大思路:

  • 基本步骤
  1. 挖掘业务含义——理解数据分析的背景、前提以及想要关联的业务场景结果是什么
  2. 制定分析计划——如何对场景拆分,如何推断
  3. 拆分查询数据——从分析计划中拆分出需要的数据,真正落地分析
  4. 提炼业务洞察——从数据结果中,判断提炼出商务洞察
  5. 产出商业决策——根据数据结果洞察,最终产出商业决策
  • 内外因素分解法
  1. 内部可控因素——产品近期上线更新、市场投放渠道变化、产品黏性、新老用户留存问题、核心目标的转化
  2. 外部可控因素——市场竞争对手近期行为、用户使用习惯的变化、招聘需求随时间的变化
  3. 内部不可控因素——产品策略(移动端/PC端)、公司整体战略、公司客户群定位(聚焦某个行业)
  4. 外部不可控因素——联网招聘行业趋势、整体经济形势、季节性变化

  • DOSS思路

       从一个具体问题拆分到整体影响,从单一的解决方案找到一个规模化、有效的增长解决方案。DOSS思路的4个具体步骤如下:

数据分析的 8 种方法:

  • 数字和趋势:实时更新的数据看板
  • 维度分解:选择维度时需要仔细思考其对于分析结果的影响
  • 用户分群:针对某种特定行为或背景信息的用户,进行归类处理
  • 转化漏斗:第一,从开始到结尾,整体的转化率是多少?第二,每一步的转化率是多少?第三,哪一步流失最多,原因是什么?流失的用户符合哪些特征
  • 行为轨迹:关注行为轨迹,是为了真实地了解用户行为,数据指标本身往往只是真实情况的抽象;通过大数据手段,还原用户的行为轨迹,有助于关注用户的实际体验、发现具体问题,根据用户习惯设计产品、投放内容
  • 留存分析:在人口红利逐渐消退的时代,留住一个老用户的成本要远低于获取一个新用户
  • A/B 测试:用来对比不同产品设计/算法对结果的影响(前提是有足够的时间进行测试,并且数据量和数据密度较高)
  • 数学建模:具备一定关联性的行为/因素,使用数学建模、数据挖掘等手段进行建模,预测商业结果的产生

对于用户增长模型,在《增长黑客》总结中有做介绍

 

最后,附上《首席增长官》思维导图


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部