1. 数据分析网首页
  2. 人物观点

TalkingData肖文峰:移动统计分析,难点何在?

摘要:移动统计分析平台可以帮助移动应用开发商统计应用数据,追踪到安装前的渠道效果,安装后的用户表现,分析用户属性、行为和了解应用推广、运营状况,为开发者优化产品设计,制定运营、推广策略提供数据支持。对移动用户进行统计分析,知己知彼,才能做到百战不殆。本文是TalkingData肖文峰的经验分享。

TalkingData肖文峰:移动统计分析,难点何在?

出门在外,被问得最多的问题就是“应用开发者为啥要用别人的统计分析平台,自己做行吗,看起来很简单啊”。每当这时,我就觉得万般辛酸,内牛满面,在做统计分析平台的过程中遇到的无数坑,骑着羊驼在脑海呼啸而过。

我们这4年来在移动统计分析上投入巨大,就是为了去填平诸多的坑。但是很多人是不到黄河心不死,所以我鼓励大家都来做做统计分析平台,一起来踩坑,“望山跑死马”,只有跑断几条腿,大家才会有感觉。

为了避免大家吃亏以后怪我言之不预,所以今天重点聊聊移动统计分析的坑。

第一个大坑:设备唯一性识别智能设备的唯一性识别是所有移动统计分析的基础,唯一性识别不准,就谈不上数据分析。客户在接入数据分析平台的时候一般会先对数据,由于设备唯一性识别不准确,有时候数据差异能达到20%以上。

在PC时代,PC的唯一性可以通过一些硬件id(比如硬盘、CPU、网卡Mac等)来标识,技术相对成熟,识别也比较稳定。但是在智能手机上,情况就很不一样了:

一是对用户隐私和数据安全有更多管控,有些数据无法获取。尤其是苹果系统,对此更加严格,其识别方法就经历过UUID、UDID、WIFI MAC、Open UDID、IDFA、IDFV等不同阶段的安全策略调整,不同机型不同系统版本需要使用不同的方法,ID持久化的手段也不同。

二是国内安卓手机生态系统非常碎片化,超过2万款的不同安卓系统,在底层接口上或多或少具有一定的差异性,从来没有一个统一规范或绝对保险的信息获取手段,都需要有针对性的进行适配。也许你不知道,记录一个原生ID需要综合使用至少4种方式,持久化一个Html5的ID更需要超过6种方式。这里需要的不仅是经验的积累,还需要耐心。

第二个大坑:数据标准化数据标准化解决的是数据质量的问题,数据标准化程度越高,数据分析结果就越准确,客户对于数据的理解也就越深入。但是在中国,数据标准化是一个比较高的门槛,需要投入大量资源做很多辛苦的“接地气”的工作,并非所有公司(包括BAT)都有能力和意愿持续投入资源在这样苦逼的事情上。

比如手机机型是数据分析的一个比较重要的维度,机型数据能够反映用户的一些属性特征,比如年龄、性别、消费能力等等。但是对于智能手机(尤其是安卓手机)来说,识别机型绝不是一件容易的事情,即使是有一些巨头,机型数据分析里面最大比例的也是“其他设备”。先不说刷机的存在让手机经常面目全非,即使是同一款手机不同出厂批次,也会出现较大的系统差异。

仅仅从系统配置属性里面拿到制造商和机型两个字段远远不够,再加上更多的附加系统配置属性也稍稍不足,有的系统要根据手机内存的大小来进一步辅助机型判断,有的系统还需要一定的技术手段获取核心芯片类型。

再比如大家以为很简单的“运营商信息”,大部分公司可能直接截取系统配置信息里面的运营商字段即可,好像也没啥要做的。但是我们收集的信息表明,即使是“中国移动”这家运营商,就有超过200条的字符串对应,包括“中国移动”、“中国移动 Mobile”、“China Mobile”、“中国移动”、“China-Mobile”、“中国移动很**”等等,千奇百怪,令人叹为观止。

我们为了数据的准确,针对类似的数据指标建立起了一套半自动化的处理流程,采用流式处理技术,在海量数据流转过程中,发现新的词条,就会提示相关的数据标准化人员。因此可以相对实时、准确的完成数据清洗工作。

还有,关于归属区域的数据,常规手段是通过IP地址来识别,于是大家都有了自己的IP地址和区域的映射表。但是中国的情况大家都知道,网络环境是非常复杂的,各省运营商从成本考虑,经常修改路由策略,导致IP地址非常混乱,基于归属区域的数据分析结果漏洞百出,经不起推敲。比如你以为你的用户大部分在上海,但是归属地一查,居然甘肃占大头!

为了解决这个问题,可以和多家数据服务商合作,建立了一套基于IP地址、位置、WIFI背景和用户行为分析的归属地分析系统,大大提升了归属地判断的准确度。伙伴们再也不用担心找不准自己的用户了。

数据取不到是一方面,能取到但是有错误是另一方面,比如一些老款手机有bug,经常断电重启了以后系统时间就变成1950年,这需要在数据处理的时候进行清洗。诸如此类,举不胜举。

大数据”更多代表的是“大量的脏数据”,只有经过清洗和标准化的数据,才有可能产生价值。数据质量必须做好。

第三个大坑:分析算法数据统计分析中会用到各种数据挖掘的算法,比如预测收入和流失,或者对自己的用户做人群画像(比如打兴趣标签)。

通常,大家觉得架几台服务器,部署一个Spark,跑一个MLLib任务也就差不多可以做挖掘了。对于刚起步的产品线的确如此,这时候数据量还比较小,怎么跑都能很快跑完,结果秒出,皆大欢喜。但是随着产品的发展,用户数不断增大,数据样本也随着增长。同时随着大家对数据需求的提升,需要刻画更加丰富的用户特性,于是样本特征维度也随之增长。这两个因素,导致普通的机器学习算法越来越没法满足需求。

从算法复杂度来说,传统算法的复杂度与训练样本数(如SVM)或特征数量(如决策树)的关系是超线性关系。有一些模型学习中用到的优化方法,如牛顿法,需要计算训练特征维度规模的海塞矩阵的逆矩阵及其乘法,其计算复杂度为 O(n^3)。从I/O消耗上说,机器学习算法大部分都包含迭代,需要反复多次使用数据,而在处理大规模数据时,受硬件条件限制,训练数据集可能无法一次性全部加载到内存中,只能分批次从文件系统中读取,于是又带来巨大的存储I/O开销。

急剧膨胀的计算量和I/O消耗,使得训练时间变得越来越长,原来秒出的结果慢慢变成分钟出,再变成小时出,甚至最后隔天才能出,越来越无法接受。能增加硬件解决?实际上,硬件数量的扩充带来的计算效率的提升,大大落后于数据量增长带来的计算量和I/O消耗。扩充硬件并不是最有效的方案,依然需要从算法优化上去解决——这里面既需要对算法本身有深刻了解,也需要具有数据领域相关的知识。对于任何公司来说,必须要有一个有经验和积累的算法团队才能搞得定,资源和时间都必须投入。

第四个大坑:成本不差钱不差人也不差时间的土豪,请自动跳过本章节,避免浪费时间。

小公司数据量小,统计分析平台可以简陋些,但是再简陋也至少需要统计分析功能。先不说各种算法各种数据规范化,至少要有一个后台开发吧?写写分析逻辑,搞搞数据库,这是必须的。另外1个数据运营人员少不了,要不然谁来定义分析指标的概念和计算方法,谁来跟踪数据的变化,谁来写报告?最后这个系统需要界面吧?再简陋,1个前端做界面和维护也是需要的,因为大家总是对数据充满好奇心,需要做各种解读,因此不断会有新界面的需求。这样,至少3个人就牵扯进去了。对于目前起步大概10个人左右的小创业团队来说,3个人放在这上面,谁受得了?

对于大公司来说,投入几个人做个统计分析平台好像也没什么。但是别忘记了,大公司的数据量要高出好几个量级,带来了计算量和复杂度的超线性增长。这时候不仅需要算法团队来研究算法的优化,也需要运维团队来规划更大规模的服务器集群。大公司的产品,不支持全平台简直都不好意思说,安卓、iOS、WindowsMobile这样的主流平台先不说,光是游戏就至少还有cocos2D、unity3D、ANE、Html5,于是有需要有专人去负责不同平台客户端的数据统一和规范的工作。

这还不算完,公司大了,部门多了,要看数据的人也多了,有的人看新增、活跃、留存,有的人看转化漏斗,有的人看渠道ROI……这么多的指标,总要有专门人归纳整理提炼维护,兼职的大猫小猫两三只搞得过来吗?这还不说一些垂直行业需要更加深入的指标分析和预测,比如移动游戏就需要分析过关数据、游戏时长、升级数据、付费数据等等,还有复杂的付费预测、流失预测……这就牵涉到产品团队和运营团队的支持。

零零总总,做好一些统计分析平台,需要投入的就至少包含一个数据算法团队、一个IT运维团队、一个客户端团队、一个数据运营团队、一个产品团队。一个团队2-3个人,咱就准备15个人吧。对于有高标准要求的公司来说,还需要一些人做数据的标准化,一些人专门去谈第三方公司数据的引入(以提升自有数据的丰富性)……人数还会增加。还没完,除了人力资源成本和管理成本,还要算上带宽、服务器、IDC租用等等,也要算上为了数据安全所需要的多机备份、多数据中心容灾等等……这绝不是一笔小投入了!

第五个大坑:数据的高效利用最后的关键还在于,无论公司大小,即使花了钱,也未必做得好。而且,做出来一回事,用得好是另外一回事。依样画葫芦很容易,但是该下的功夫无论如何也省不了。

以前app开发者只关注推广,重视下载量和安装量(即使现在有一些app依然如此),后来慢慢知道新增、日活、留存这些指标了。但这还远远不够,如何通过这些数据来指导产品的改进和运营的优化?

并不是搭个框架放点数据做些图表就叫精细化运营,这些都需要有一套成熟的方法论的指导。从用户的获取,到用户进入应用以后产生活跃,到用户对应用功能或服务产生黏性,到应用如何通过服务或功能获取收入,并通过为用户提供超过预期的服务来产生分享,从而进入第二次传播,影响新用户的获取。这个循环中,每个环节都可能遇到大量问题。通过数据的指导,有助于我们发现问题并找出有针对性的解决方案。

很小的时候就学过,“知易行难”。空口说大话容易,踏踏实实做出一件事情来很难。TalkingData经历了这么多坑,才把统计分析做出来,给大家分享这些经验让大家少走弯路。

当然,想做统计分析的朋友,欢迎交流切磋,共同进步。

作者简介:肖文峰:TalkingData CTO,1978年生,清华大学硕士,曾就职于朗讯、BEA/甲骨文和微软,担任软件研发和研发管理工作。后经过一段时间创业,于2013年加入奇虎360负责无线端产品线。2014年加入TalkingData任CTO,负责全业务线的研发工作。

本文为专栏文章,来自:AI前线,内容观点不代表本站立场,如若转载请联系专栏作者,本文链接:https://www.afenxi.com/10422.html 。

发表评论

登录后才能评论

联系我们

如有建议:>>给我留言

QR code