MapReduce 中如何处理HBase中的数据?如何读取HBase数据给Map?如何将结果存储到HBase中?


MapReduce 中如何处理HBase中的数据?如何读取HBase数据给Map?如何将结果存储到HBase中?

Mapper类:包括一个内部类(Context)和四个方法(setup,map,cleanup,run);

          setup,cleanup用于管理Mapper生命周期中的资源。setup -> map -> cleanup , run方法执行了这个过程;

          map方法用于对一次输入的key/value对进行map动作,对应HBase操作也就是一行的处理;



job的配置:

    1.  TableInputFormat完成了什么功能?

         (1)通过设置conf.set(TableInputFormat.INPUT_TABLE,"udc_sell");设定HBase的输入表;

                设置conf.set(TableInputFormat.SCAN, TableMRUtil.convertScanToString(scan));设定对HBase输入表的scan方式;

              

      (2)通过TableInputFormat.setConf(Configration conf)方法初始化scan对象;

            scan对象是从job中设置的对象,以字符串的形式传给TableInputFormat,在TableInputFormat内部将scan字符创转换为scan对象

            

         * TableMapReduceUtily有两个方法:convertScanToString和convertStringToScan作用?

            将scan实例转换为Base64字符串  和将Base64字符串还原为scan实例;

             Q:为什么不直接穿Scan对象而是费尽周折地转换来转换去呢?

             A:

         (3)TableInputFormat继承了TableInputFormatBase实现了InputFormat抽象类的两个抽象方法:

            getSplits()和createRecordReader()方法:

            A:getSplits()断定输入对象的切分原则:对于TableInputFormatBase,会遍历HBase相应表的所有HRegion,每一个HRegion都会被分成一个split,所以切分的块数是                  与表中HRegion的数目是相同的;

                InputSplit split = new TableSplit(table.getTableName(),splitStart, splitStop, regionLocation);  在split中只会记载HRegion的其实rowkey和终止rowkey,具体的去读取                这篇区域的数据是createRecordReader()实现的。

             计算出来的每一个分块都将被作为一个map Task的输入;http://

                 Q:但是分出的块分给那台机器的那个task去执行Map,即jobTracker如何调度任务给taskTracker?

                 A:  需要进一步了解Map的本地化运行机制和jobTracker的调度算法;(可能是就近原则)

                      对于一个map任务,jobtracker会考虑tasktracker的网络位置,并选取一个距离其输入分片文件最近的tasktracker。在最理想 的情况下,任务是数据本地化的(data-                       local),也就是任务运行在输入分片所在的节点上。同样,任务也可能是机器本地化的:任务和输入分片在同一个机架,但不在同 一个节点上。

                      reduce任务,jobtracker简单滴从待运行的reduce任务列表中选取下一个来运行,用不着考虑数据段饿本地化。

            B:createRecordReader()按照必然格式读取响应数据:

                 接收split块,返回读取记录的结果; 

              

public RecordReader<ImmutableBytesWritable, Result> createRecordReader(InputSplit split, TaskAttemptContext context){
                  

                }

                trr.init()返回的是这个分块的起始rowkey的记录;


           RecordReader将一个split解析成<key,value>对的形式提供给map函数,key就是rowkey,value就是对应的一行数据;

           RecordReader用于在划分中读取<Key,Value>对。RecordReader有五个虚方法,分别是:

                                          initialize:初始化,输入参数包括该Reader工作的数据划分InputSplit和Job的上下文context;

                                          nextKey:得到输入的下一个Key,如果数据划分已经没有新的记录,返回空;

                                          nextValue:得到Key对应的Value,必须在调用nextKey后调用;

                                          getProgress:得到现在的进度;

                                          close:来自java.io的Closeable接口,用于清理RecordReader。

   2.   job.setInputFormatClass(TableInputFormat.class);        

                                      

   3.   TableMapReduceUtil.initTableReducerJob("daily_result", DailyReduce.class, job);

        使用了该方法就不需要再单独定义

        initTableReducerJob()方法完成了一系列操作:

     

(1). job.setOutputFormatClass(TableOutputFormat.class); 设置输出格式;
 (2). conf.set(TableOutputFormat.OUTPUT_TABLE, table); 设置输出表;
 (3). 初始化partition