1. 日志分析必要性

  互联网的发展,将产生大量的Web日志或者移动端日志,日志中包含非常丰富的用户各类信息。通过解析分析挖掘此类信息,将产生相应的数据价值。

  • 一般中型网站(10w pv以上),每天将产生1G以上的Web日志。
  • 大型网站或超大型网址,可能每小时会产生500GB至1TB的数据。

  Web日志主要是Web服务器产生,现在公司主流的服务器是Nginx,Apache,Tomcat等。

1.1 日志格式

目前常见的Web日志格式主要两类:

1. Apache 的NCSA日志格式
    2. ISS 的W3C日志。

1.2 传统单机日志数据分析

1. linux shell 单机日志分析
    2. python 单机日志分析

1.3大规模分布式日志分析

  当日志以每日10GB,100GB增长时,单机则早已不能满足,此时需要大数据分析和并行计算来解决。

  • spark未出现之前:
  • 海量的数据存储和日志分析基于Hadoop和Hive等数据分析系统的。
  • spark出现后:
  • 全栈数据分析更加容易。sparkSQL处理离线的数;sparkStreaming处理实时数据。

2. 日志分析指标

  由于数据的重要性越来越高,数据化运营对互联网公司的利益影响也非常明显。

2.1网站运营日志分析常用指标

2.1.1 PV (Page View)
  • 网站页面访问数,网站流量
2.1.2 UV (Unique Visitor)
  • 页面IP访问量统计,访问用户数,独立IP
2.1.3 PVUV (Page View Per User)
  • 平均每位用户访问页面数
2.1.4 漏斗模型与转化率

  漏斗模型定义:不同事件按照一定依赖顺序触发的流程中的转化模型。

  • 1.商品详情页 –> 2.加入购物车 –> 3.生产订单 –> 4.支付订单 –> 5.交易完成

  转化率定义:当完成当前事件的用户触发下一个依赖事件的用户所占比例。

2.1.5 留存率

  用户在某段时间内开始的应用,经过一段时间后,仍然在继续使用这个应用被认为是留存。 ==这部分用户占新增用户的比例==就是留存率。

2.1.6 用户属性

用户基本属性和行为特征,打标签后,帮助产品进一步营销推荐。

2.2 终极目标使用界面展示

  中大型公司,都会自己开发的一套DMP(data manage platform)数据管理平台。当然也可以借鉴使用tableau。

PS: 文章主要摘自Spark大数据分析实战–Lamda架构日志分析流水线