1. 日志分析必要性
互联网的发展,将产生大量的Web日志或者移动端日志,日志中包含非常丰富的用户各类信息。通过解析分析挖掘此类信息,将产生相应的数据价值。
- 一般中型网站(10w pv以上),每天将产生1G以上的Web日志。
- 大型网站或超大型网址,可能每小时会产生500GB至1TB的数据。
Web日志主要是Web服务器产生,现在公司主流的服务器是Nginx,Apache,Tomcat等。
1.1 日志格式
目前常见的Web日志格式主要两类:
1. Apache 的NCSA日志格式
2. ISS 的W3C日志。
1.2 传统单机日志数据分析
1. linux shell 单机日志分析
2. python 单机日志分析
1.3大规模分布式日志分析
当日志以每日10GB,100GB增长时,单机则早已不能满足,此时需要大数据分析和并行计算来解决。
- spark未出现之前:
- 海量的数据存储和日志分析基于Hadoop和Hive等数据分析系统的。
- spark出现后:
- 全栈数据分析更加容易。sparkSQL处理离线的数;sparkStreaming处理实时数据。
2. 日志分析指标
由于数据的重要性越来越高,数据化运营对互联网公司的利益影响也非常明显。
2.1网站运营日志分析常用指标
2.1.1 PV (Page View)
- 网站页面访问数,网站流量
2.1.2 UV (Unique Visitor)
- 页面IP访问量统计,访问用户数,独立IP
2.1.3 PVUV (Page View Per User)
- 平均每位用户访问页面数
2.1.4 漏斗模型与转化率
漏斗模型定义:不同事件按照一定依赖顺序触发的流程中的转化模型。
- 1.商品详情页 –> 2.加入购物车 –> 3.生产订单 –> 4.支付订单 –> 5.交易完成
转化率定义:当完成当前事件的用户触发下一个依赖事件的用户所占比例。
2.1.5 留存率
用户在某段时间内开始的应用,经过一段时间后,仍然在继续使用这个应用被认为是留存。 ==这部分用户占新增用户的比例==就是留存率。
2.1.6 用户属性
用户基本属性和行为特征,打标签后,帮助产品进一步营销推荐。
2.2 终极目标使用界面展示
中大型公司,都会自己开发的一套DMP(data manage platform)数据管理平台。当然也可以借鉴使用tableau。
PS: 文章主要摘自Spark大数据分析实战–Lamda架构日志分析流水线