内容简介:做完运营核心能力分析和解决问题的解读之后,我们来解读一下与问题分析解决紧密绑定在一起的数据管理能力和数据分析的思路。首先明确一下,这里说的数据,不仅是‘number’而是‘data’。‘data’相比‘number’附带了更多的信息量、属性和衡量维度,在阅读以下的内容时候请时刻保持这个共识。
做完运营核心能力分析和解决问题的解读之后,我们来解读一下与问题分析解决紧密绑定在一起的数据管理能力和数据分析的思路。
首先明确一下,这里说的数据,不仅是‘number’而是‘data’。‘data’相比‘number’附带了更多的信息量、属性和衡量维度,在阅读以下的内容时候请时刻保持这个共识。
为什么和数据相关的工种都非常值钱,数据分析师、会计、金融分析师等等。因为 数据即是模糊现实的一种客观呈现 (为什么说理论数学是一切理论和实用科学的基础),以理性的方式讲述现实,以量化的方式衡量客观存在。针对数据的深入分析和挖掘,能够得出现实的最近似解读,指导着人们制定引导现实的最有效策略。
当然对于活动运营来说数据这部分的工作没有那么玄乎,但本质是一样:如果通过数据的管理掌握负责业务的最近似现实,如何通过数据分析从数据总挖掘有效信息。
简单一点来说,老板问你最近上的这个活动效果如何,你能够从多个角度来阐述活动效果到底是好是坏,且数据的支撑让你的结论无可辩驳;而这些数据的支撑来自于你严谨的数据分析和挖掘过程。
所以数据这部分内容希望能够给大家一个引子,以明白:
- 活动运营需要具备有效的基本的数据管理能力,以掌握负责业务的最近似现实。
- 同时需要掌握一些基本的数据分析工具,进行有效的数据分析和挖掘。
我们 将必要的活动运营需要掌握的数据管理和分析能力设定为这个部分知识的边界 ,数据管理和分析这门学科同样也是深远和无止尽的,直至现在也还不断有新的数据分析理论和方法被创造出来,如果对这个部分感兴趣的可以自行再深入研究。
一、基础数据管理能力
数据管理工作的本质是帮助我们尽量的了解现实,了解你的产品、策划案、专题活动是否真实有效影响了用户,呈现出的现实结果是由什么现实过程带来的,所做的运营动作的效果相比其可能的选择是更好还是更坏,投入的成本是否值回票价。
通过数据管理了解现实的过程是挑战直观认知的过程,是不是一个领导个人喜欢夸赞不绝的项目就是一个成功的项目,是不是一个表面毫无产出的项目就是毫无价值的项目,是不是你认为好的内容更多的用户也是一致的想法。
可怕的是,就个人实际接触来看,数据管理往往并不被当作掌握现实的 工具 在使用,而 被当作掩盖问题创造虚假现实的手段去欺骗上级、合作方、客户和市场 。
常见的方式就是先写下乐观的,有助于达到目标的结论(这个项目非常受到市场的欢迎,可以加大资源投放),然后反向再去挖掘数据,把有助于支撑这个结论的实际并没有那么严谨的数字留下来(我们投放的产品广告用户点击率非常高-其实只是因为广告商有一个抽奖iPhone的利益点),隐藏掉那些真实的会得出悲观结论的数字(被抽奖骗进来的用户根本对产品不感兴趣),渐渐倾向于相信一些错误的片面的数据,往往 自己也被催眠了。
这种事情你肯定也没少干。但也理解,阶段性的在竞争状态下下,面对着市场、客户和上级、是需要夸大和包装一些虚假的结论来让一个项目活下去,争取更多的时间窗和资源。
但是这个过程其实并不影响你自己心里掌握真正的现实情况,心里有数你也才能评估 用数据管理营造的假象所争取的资源,能不能弥补之前的错误带来二次的机会。
所以在开始这部分的内容之前,请准备好你的心态:这部分的数据管理并不会教你怎么把数据包装和呈现得美观和看似合理,这类的方法论市面很多课程了自己去学习,我想分享和倡导的数据管理,更多在于怎么通过数据管理帮助你掌握真正的现实。
什么是数据管理下真正的掌握现实?
我认为至少需要包含三个部分:
- 需要对现实有完整的客观描述(把模糊的现实转化为量化的结论-卖了很多产品-卖了1000份产品)
- 需要对现实的描述有评价标准和结论(比昨天多卖了一倍所以今天卖的很好)
- 需要对现实的原因同样有必要的溯源和量化的描述,形成完整的逻辑描述(因为今天气温骤降,促使很多观望用户下单,带来转化率有很大的提升)
以上三个部分构成了最基本的数据管理框架,代表着你对一个完整现实情况的掌握。也意味着,你能够经得住领导的经典三大灵魂拷问:做的好不好?有多好?好在哪里?(嗯,其实我在另外一个领导力的系列课程里面也在不断的教领导者们问这三个问题,希望你们能完美接上。)
深究原因上领导会喜欢问这三个问题,也代表了这三个问题背后隐含的,代表完整现实的意义。
做什么、怎么做、怎么提升?
那么我们来分拆看看,三个部分应该分别做些什么,怎么做和怎么提升这个部分的能力
描述现实意味着,掌握完整和客观的现实全貌,透过表象看到本质。
很多时候结果被当作唯一的现实来对待,其实是片面甚至是误导性的。结果和现实是完全两个东西, 结果只是直观的最表象的现实的一部分 (但不否认某些非黑即白的问题下结果就是唯一的现实),仅知道结果往往难以让你得出结论和指导接下来的动作,但是 掌握现实,你的结论和后续动作就会非常清晰。
举个简单的例子:这一次的专题活动销售情况不理想只是结果,而用户其实非常喜欢我们的产品,但因为某种原因导致这次专题活动并没有促使用户下单才是现实(实际的现实会更完整一些,便于理解做了简化,杠精退散)。
搭建一个业务的数据管理框架本质就是:搭建出来你需要掌握的和你的业务相关所有体现现实的数据框架并加以逻辑拆解和解读,以得出有效的结论。而完整性是搭建框架第一步的目标,这个步骤拥有完整性才具备进行接下来数据管理步骤的基础。
(1)先问自己一个问题,影响这个业务的所有相关的现实因素是哪些?
既然是问题,进入了我们已经掌握的问题分析的领域,参考问题分析文章的方法论,这个问题属于一个相对混沌的问题,我现在还不知道最终分析出来的结果可能是什么,拆机的元素需要有哪些,所以我们用无脑的6W2H方法帮助我们进行穷举(具体参考skyhahalife前文):
- WHO:穷举所有描述用户现实的数据项,用户基本画像,用户量级等
- WHERE:穷举所有描述场景现实的数据项,漏斗模型,资源投放效果等
- WHAT:穷举所有描述产品现实的数据项,转化率,产品销售数据等
*知识点*:
“以上三个分析框架是电商里面常用的‘人货场’框架,是6W2H的一种演变种类也常用于策略制定,但因为电商在互联网里面的特别的复杂性,所以这个框架往往也能够套用于各种对C的业务分析中。”
穷举还在继续,只要认为是帮助认清完整现实的数据,都应该纳入框架,继续用其他‘W’和‘H’帮助你拆解,直到穷举完毕所有和这个项目相关的数据为止。
这个部分的能力提升,本质就是在一次又一次的数据拆解和解读过程中, 不断的积累自己的业务熟悉程度, 知道针对不同的业务场景,哪些数字是需要关注的重要的隐含的,在这个能力一定程度的积累之后你就可以跳过以上的拆解过程,在脑子里面就可以把这个框架搭出来。
但是在熟练的操作之前或者接触某个新的业务场景时候,还是建议完整套用以上过程,帮助你开启前几次的掌握完整现实的过程。
然后你现在手上有了一堆杂乱无章的数据,他们已经是现实的完整阐述,但是你还是看不懂,得不出有效的结论,因为他们还只是无序的数字,需要进一步的逻辑拆解和解读,也就是我们要进行的后面两步动作。
(2)衡量好坏
我今天晚饭一个人吃了五十块钱的麻辣烫,这个数字在你这里有什么感知,并没有吧。但如果我告诉你,一个三十块钱的麻辣烫套餐在同一个店铺里被叫做‘情侣套餐’,显然你就会得出 ‘你是猪吗’ 的结论。
这个步骤要做的事情也就是,给你目前手上这一堆杂乱的数字做个评价。计算机和很多直男的脑子里只有1和0两种结果,正和负的结论是显而易见的。但是一个不是0也不是1的数字,没有绝对的规则该如何评价。通过比较得出相对的结论是唯一的办法,得出的好和差的结论也不是真的绝对的好和坏,只是相对更好和更坏。
以上理论解释了困惑众多直男们的一个史诗问题:纪念日送多贵的礼物给女朋友她才能满意?大部分场景下的答案是 比她闺蜜收到的贵就好。
所以这个部分要给每个数字下一个定论,关键点就是要对每个数字 寻找合理有效的参考标准 :
- 一个广告的点击率,点击成本行业内一般是多少,之前类似的业务做到了多少,我上一次项目做到了多少;
- 一个用户的ASP值是多少,某一个群体在某一个场景下的平均值一般是多少;
- 一个产品的销售转化是多少,竞品一般是多少,之前的峰值日均值分别是多少。
这个部分的能力提升显而易见,即是你经常接触的数据纬度,你是否熟记他们的参考和衡量标准。当然在熟练掌握这个模块能力之前,强迫自己在完整的数据框架下, 全面的梳理和了解一次所有数据的衡量标准,你基本上也就上路了。
然后现在你手上有了一堆杂乱无章的带着评价的数字,可以得出一些显而易见的结论,我的页面转化率很糟糕,但是你还是没有办法完整的描述出来整个现实情况,因为这些数字之间还没有构成逻辑关系,也就是下一步我们要做的。
(3)构建逻辑形成完整的现实描述
很多数据分析工作在上一步就停止了,因为似乎结论都很清楚了(点击率就是高用户就是喜欢,卖得好就是产品受欢迎,页面停留长就是用户愿意逛),也因为对于把数据管理当作对上预期管理工具的人来说,这个阶段其实可以得出是很多有效支持期望中结果的片面结论,某种主观还是客观因素让他们停了下来,开始拿这些零散的结论组织自己的项目喜报。
但仔细深究会发现,这些单点数字结论总是可以被质疑和挑战的,实际情况很多时候你被领导挑战得无法答复也是这个原因。因为数据没有形成逻辑,就没有形成完整的现实描述,所以结论一定不完整、可挑战。
完整有效的数据管理框架,是严谨的对现实的逻辑描述,严谨和逻辑是其中的必要因素。因为数据很容易骗人,原因正如上面所述,单点的数据没有逻辑的推倒下,可以得出很多种结果,而人们往往会倾向于相信积极的结论而忽略了其他更多中可能性,误导就发生了。
构建完整和严谨的逻辑性是有效的克服这个点的办法,方法其实并不复杂:
- 假设结论: 你先纵览手上所有的数字,脑海中大概描绘一下数字之间的作用关系,应该可以有一些大概的猜测,把这些猜测先记录下来。保证你的猜测是一句完整的逻辑描述(*知识点基本的两种逻辑描述推演和归纳:因为-所以-因为-所以;因为1、2、3、4所以X)。例:这次营销活动的销售效果较差是因为引入了错误的客户导致的转化率低。
- 验证: 把你手上的数字放到你的逻辑描述当中,验证这个逻辑是否成立。例:转化率是不是低,客户的画像是不是不符合。
- 反证: 为了避免在一开始猜测的过程中搭建的逻辑描述本身不完善,所以你需要尝试反证你的结论,从手中带着评价的数字中寻找是否有能够让这个逻辑不成立的结论,如果出现了,那么就重新假设,或者针对本身这个数字和逻辑的冲突进行一个新的假设-验证-反证。例:但是广告的点击率很高,似乎驳斥了引入错误客户的结论-新的假设:广告点击率高是因为广告上放置了无关的诱导信息(免费抽iPhone),验证类似的诱导信息在其他先例中是不是也产生过同样的结论。
不断的尝试组合手上的数字,经历以上过程,形成一个或者多个严谨的逻辑描述,直到没有更多重要的或者需要的描述可以梳理。就意味着你真正掌握了关于一个项目的全部现实,这才是有效的数据管理工作的本质,也是制定后续策略优化动作的基本保证。能够客观的面对成败,得出有效的结论,是一个业务和一个团队真正需要的。
这个时候,你就可以自信地说出,关于这个项目的情况, 领导你随便问吧 。
写总结就更简单了,无非是把这些逻辑依次通过一些可视化的工具呈现的简单清晰而已。怎么可视化市面上太多教材了,我这里不教搬迁的知识,自己去找。
当然以上的三个部分完整执行下来是异常复杂和耗时的,所有项目都严格执行显然不现实。所以更重要的是理解数据管理的真实运作原理,在面对复杂的数据管理工作时候,这套理论给到一个引子和方法让你不出错的开展一个数据管理工作。
当每个步骤的工具使用越发熟练以及伴随着你的业务能力逐步提升,你的数据管理能力就能让你游刃有余、高效的、针对性的掌握一个项目的事实全貌,比起那些每一次都花巨大精力去无目的的跑数据,写报告凑结论的人来说,你就是降维打击。
二、如何通过数据分析工具完成数据的挖掘和得出结论?
我们开始第二部分的解读,关于 如何通过数据分析工具帮助你完成数据的挖掘和得出结论,这个过程对应着数据管理部分怎么从单点数字挖掘价值,赋予意义的步骤。
此部分并不会介绍太具体的数据分析工具,同样市面上有很多现成的方法论可以去学习,还有曾经拿过全国奥数一等奖的本人经历了十年的蹦迪生活以后,也不太搞得清楚什么是回归分析和概率计算了。
但我想分享的是数据分析工具背后更重要的数据分析思路,某种意义上来说这些思路才是真正强大的数据分析工具,帮助你理解数据分析工具的本质,在什么场景应该怎么分析一个数字以及避免过度强调方法论的分析过程导致得出错误的结论。
掌握这些思路,工具都是现成的技巧,需要的时候随时百度即可。
活动运营需要掌握的常见数据分析思路(工具):
1. 趋势分析
为什么一个公司还在保持增长且业务规模依旧庞大,但是增长率出现了一点下跌市值就会疯狂下跌。因为资本市场对一个公司的估值,其实是基于这个公司未来很多年的业务规模以及回报实现的, 所以一个公司的未来和发展趋势比现状更加重要 。
资本行业对一个公司业务规模的评价模型就代表着趋势分析思路的核心,越高纬度的趋势分析越能够看清楚趋势的本质。
怎么理解,增长率是第一纬度的趋势分析,体现了这个公司业务还在正向发展;但是增长率的增长趋势这个第二纬度(经常看到的增长率下跌报告)的趋势分析,体现了这个公司业务发展趋势的走向,是增长的越来越快了(意味着持续增长的未来)还是越来越慢了(意味着出现增长停滞和下跌的未来)。
现在我们来到增长率的增长趋势的增长趋势,第三个纬度,体现了这个公司业务发展趋势的走向的更本质(这个公司的增长率在下跌,但是下跌的幅度比上一个季度更小了也许意味着这个公司和业务找到了新的增长曲线正在接棒老的增长曲线)。
这个原理运用到实际的工作中,意味着我们要在各种趋势分析过程中,有意识的不断往高纬度走,以看到更多的趋势本质。停留在低的纬度往往会让你忽略了潜在的未来的趋势。
2. 对比试验类型
常见运用是一种叫做A/BTEST的分析手段,以通过两个对照组的基本一致条件设定和对比差异条件设定来得出一个动作的实际效果。
这个方法的运用,是不是叫A/BTEST还是C/Dtest并不重要,重要的是背后的分析思路,要得出一个运营动作或者是干扰因素的真实影响,采用排除干扰因素的对比试验是最严谨有效的办法。
这个方法相信理科生并不陌生:让两个实验对象处于尽量一致的因素之下,仅存在测试因素唯一的差别,观察最终两个实验对象的结果,这个测试因素和结果之间才构成绝对严谨的逻辑推论关系。
例如:你要验证页面上一个按钮的调整是否会对页面的点击率产生影响,用两个版本的页面,投入同样量级的流量测试并不能得出严谨的结论,因为可能某一个版本被引入了更多的女性用户更倾向于点击那个带着图片的按钮。必须保证你的投入流量用户群体是基本一致的,结论才有效。
有这个思路,你可以去试试看,女神拒绝你的原因到底是丑还是穷?
3. 用户路径和漏斗模型
活动运营常用的数据分析思路,回归用户的路径去搭建数据逻辑框架,以清晰的帮助业务判断真正关键的,影响用户行为的转化环节。
漏斗模型大家都会画:广告点击到页面流量到商品详情到下单每一个环节的绝对值放上去,算出转化率得出每一步转化率好或坏的结论,然后优化差的环节。
这样的漏斗模型运用当然在大多简单的业务模型下是没有问题的,也能够得出基本有效的结论。但是大多人对漏斗模型的使用停留在毕业前半年导师给他的一个基本漏斗模型,只是每一次都在生搬硬套填写每个漏斗层级的数据。
这样生硬的使用方式往往在业务模型出现变化(设计社交分享时候用户往往不是从页面进入),用户行为发生微妙的演变(用户在看到不完整的页面信息以后跳出进行了搜索,但是最终还是下单了)时候完全失效。
所以更倡导的是掌握用户路径分析方法的核心思路,不是直接套用现成的漏斗模型,而是尝 试先绘出用户从接触你的业务第一时间开始,像讲一个故事一样的,描述清楚用户可能的走向,直到来到最终的成交转化环节。 以此思路梳理出的用户路径,找出关键点,才能构成真正有效的漏斗模型。
在社交化,垂直化,去中心化业务(社交电商,分销等)越发普遍的时代, 用户的浏览路径远远复杂过传统的主页-专题页-商品详情的模式 (传统的电商,门户业务都是),掌握这个用户路径分析的核心思路才能帮助你真的跟上业务变迁。
4. 黑盒分析
当一个业务或者一个模块其中的运作机制太过复杂,导致分析其运作逻辑成本过高甚至无法分析的时候,黑盒分析思维给了你一条轻松简单的路径: 把搞不清楚的复杂的运作机制当作一个黑盒,只考虑这个黑盒的输入结果和输出结果,寻找输入和输出之间的关系。
其实人类大部分的科学结论都是通过黑盒分析得出的,比如说:科学家发现在迪厅里面桌上放一把法拉利的钥匙就会有很多小姐姐被吸引过来。
黑盒分析的理论不难理解,但关键是这个思维在合适时间的合适运用,一定程度上黑盒分析和以上说的深究原因的数据体系管理掌握事实全貌是有冲突的。
但太多时候我们纠结于一个项目的细节太久太久,总要一定深究一个难以定义的原因到底是什么。当你发现一个只是引起线性变化的因素把项目团队困在分析当中太久导致效率低下的时候,适时的把一些不关键的或者无法分析的部分打包成为一个黑盒,用输入输出之间关系来分析也能得出有效的结论。
合理运用黑盒分析思路,能够帮助你提升很多效率。
5. 大数据思路-简化为模型
这个思维讲究的是, 当数据量足够大的时候,要学会把复杂的个体简化为大数据个体 ,简化的过程是提炼其中关键的,必要的因素而去掉那些毫不相关的或者是个体差异巨大但整体差异可忽略的因素的。
比如很多电商的大数据运用,会将每个人打标上收入和城市层级,因为这两个属性的交叉构成了基本的消费者模型:一线城市的有钱人喜欢追求潮流,一线城市的穷人可能喜欢买优衣库,低线城市的有钱人喜欢买奢侈品,低线城市的穷人喜欢买纯粹的便宜货。可能会有一些一线城市的抠门土豪并不愿意买个戴森,但不关键,这是大数据思维。
搭建最简单的用户模型是大数据思维的本质。
活动运营往往需要面对的业务情况就是通过目标用户的分析来进行业务策略的制定,而你的业务目的是什么决定了你需要进行的用户模型搭建,用户模型搭建决定了你的专题页面线索布置和分类。
例如:你在负责一个销售月饼的活动,销售月饼是你的业务目的,可能这个目的关联到的用户模型引子是用户为什么买月饼,和用户买的起多贵的月饼。所以你进行了:土豪送礼、穷人送礼、土豪自己吃、穷人自己吃这样的用户模型搭建。
接下来需要做的事情很直观了吧~
最后
以上,即是我对于活动运营,需要掌握的数据管理和数据分析能力的定义和解析。重要的是,理解这些原理,具体的工具百度就有大把,但脱离了对原理的理解,无脑的使用,你就很容易被数据欺骗。
完了,各自领悟吧~
#专栏作家#
SKY#沙铉皓,微信公众号:skyhahalife,人人都是产品经理专栏作家。腾讯,京东7年专注活动运营领域;砍价,众筹礼包等社交裂变模型原创者。
本文原创发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于CC0协议。
以上所述就是小编给大家介绍的《活动运营需具备的数据管理能力以及数据分析思路》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 数据仓库的“元数据管理”
- 数据安全实践之数据资产管理
- 数据分析:基于智能标签,精准管理数据
- 数据源管理 | 基于JDBC模式,适配和管理动态数据源
- 数据搬运组件:基于 Sqoop 管理数据导入和导出
- VirAPI 多人协同管理虚拟数据接口功能上线,团队管理 Mock 数据更方便!
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。