@大数据技术分享1.hadoop框架生态

一、hadoop主要解决:大数据的存储和分析计算
1.hadoop的三篇论文: GFS --> HDFS Map-Reducer --> MR BigTable --> Hbase
2.hadoop 的优势:
1)高可靠性:因为Hadoop假设计算元素和存储会出现故障,因为它维护多个工作数据副本,在出现故障时可以对失败的节点重新分布处理。
2)高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
3)高效性:在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。
4)高容错性:自动保存多份副本数据,并且能够自动将失败的任务重新分配。

3.hadoop 组成:
        HDFS 文件系统 
        MapReducer 计算框架
        Yarn 作业调度、资源管理框架
        Common 支持其他模块的框架

4.Hdfs的架构
   NameNode (nn)存储文件的元数据
   DataNode (dn)存储文件块数据,以及块数据的校验和
   Secondary NameNode(2nn)监控HDFS状态的辅助程序,定时获取HDFS元数据的快照。

5. YARN架构
   1)ResourceManager(rm):处理客户端请求、启动/监控ApplicationMaster、
      监控NodeManager、资源分配与调度;
    2)NodeManager(nm):单个节点上的资源管理、处理来自ResourceManager
        的命令、处理来自ApplicationMaster的命令;
    3)ApplicationMaster:数据切分、为应用程序申请资源,并分配给内部任务、
        任务监控与容错。
    4)Container:对任务运行环境的抽象,封装了CPU、内存等多维资源以及
        环境变量、启动命令等任务运行相关的信息。

 6.MapReduce架构
    1)Map阶段并行处理输入数据
    2)Reduce阶段对Map结果进行汇总

……………………………………………………………………………………………………………………………………………………………………………………………………………………

二、大数据生态体系

(1)Sqoop:用于在Hadoop(Hive)与传统的数据库(mysql)间进行数据的传递,可以将关 
    系型数据库中的数据导进到HDFS中,也可以将HDFS的数据导进到关系型数据库中

(2)flume:是高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,
                Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,
                Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力 

 (3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统
      1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的
        消息存储也能够保持长时间的稳定性能。
      2)高吞吐量:普通的硬件Kafka也支持每秒数百万的消息
      3)支持通过Kafka服务器和消费机集群来分区消息。
      4)支持Hadoop并行数据加载。
 (4)Storm:Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”
        实时处理消息并更新数据库。 Storm也可被用于“连续计算”
        (continuous computation),对数据流做连续查询,在计算时就将结
        果以流的形式输出给用户。
 (5)Spark:Spark是当前最流行的开源大数据内存计算框架。可基于Hadoop
        存储的大数据进行计算。
 (6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理
        系统。Oozie协调作业就是通过时间(频率)和有效数据触发当前的Oozie
        工作流程。
 (7)Hbase:HBase是一个分布式的、面向列的开源数据库。是一个非结构化数据
        存储的数据库。
 (8)Hive:hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射
        为一张数据库表,并提供简单的sql查询功能,可以将sql语句转为MapReduce
        任务进行运行。
 (9)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个
         自由、免费、源代码开放的软件,它是用于统计计算、制图的优秀工具。
 (10)Mahout:apache Mahout是个可扩展的机器学习和数据挖掘库,当前Mahout
        支持主要的4个用例:
        推荐挖掘:搜集用户动作并以此给用户推荐可能喜欢的事物。
        聚集:收集文件并进行相关文件分组。
        分类:从现有的分类文档中学习,寻找文档中的相似特征,并为无标签的
              文档进行正确的归类。
        频繁项集挖掘:将一组项分组,并识别哪些个别项会经常一起出现。

 (11)ZooKeeper:Zookeeper是是一个针对大型分布式系统的可靠协调系统,
          提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。
          ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和
          性能高效、功能稳定的系统提供给用户。