1. 从离线方面入手(hadoop、hive)
  2. 熟练使用框架后跟着demo看源码
  3. hadoop和hive要学好
  4. 算法和常用数据结构
  5. 面试要求:hadoop、zookeeper、hive、flume、kafka、hbase,sqoop框架会用
    Java基础、熟悉Linux,手写SQL
  • 学习一个新的东西,首先要弄清楚三件事:这是什么东西(干什么的)?为什么需要它(怎么来的)?它是如何运作的?
  1. 大数据跟业务紧密相关,相比去学习一个完整的技术工具,不如从实际需求出发(比如支付宝年度账单)去使用和理解它们的功能和设计
  2. 学习是阶段性的,不用想把所有东西都装进脑子,遇到问题的时候再回顾下,就能发现前人开拓的道路了

作为自学了几个月并且找到工作的我,给大家大数据学习几点建议:
1、如果是零基础入门,强烈建议在学完java基础后,每天刷一道算法题,这样在学习spark,做一些etl工作,才会显得游刃有余,同时这 样的积累,以后去大厂面试,也能有不少的助力
2、所有的大数据框架都大差不差,在学习完一大堆框架后,很容易就忘记前面的知识,所以在学有余力的时候,一定要多实操,甚至可以 看看源码,这样记忆才会更加深刻
3、写sql能帮助你找到一分薪资很丰厚的工作,但是一定不能止步不前,还是要多写代码,提升自己的竞争力
4、多练习自己看文档的能力,实际工作中可能有很多不会的内容,但是只有足够强的学习能力,就能很快的胜任公司的工作
5、一切的说辞都需要有一定的自制力,需要持之以后的学习,这样才能成功,耐得住寂寞,学得到东西
6、最后给大家一些学习路线建议java - linux - shell - hadoop - hive - kafka - hbase - spark - flink
7、别的学习框架可以在做项目时进行练习,没有必要花一整块时间学习,在工作中实际需要用到,再捡起来也来得及