前边,讲述了Hadoop的两大支柱HDFSMapReduce,我们通过将大数据的数据文件放在HDFS上,利用Java编写Map-Reduce,来实现数据的各种分析,并预测一些东西,实现大数据的商业价值,从而也体现了Hadoop价值所在。

 

    但是反观传统系统中,我们都是通过数据库进行数据分析的,例如关系型数据库:Oracle,SQL Server,MySQL等,更进一步的通过NO SQL数据库:MongoDB等。对于Hadoop大数据分析,我们如何能够快速而平滑的过度过来呢,以至于不会Java的也能够进行利用hadoop进行数据分析呢。好,Hadoop的子项目为我们解决了这个难题:PigHive。好,这篇博客来看看Pig是如何操作Hadoop的。

 

    一,Pig是什么:


    PigYahoo捐献给Apache的一个项目。相当于Hadoop的一种客户端,属于Hadoop的上层衍生架构,将Map-Reduce进行封装。通过Pig客户端用户可以使用Pig latin 一种类似于SQL的面向数据流的语言对HDFS下的数据进行处理。说简单一点Pig就是pig latin数据流语言和Map-Reduce之间的翻译,类似于不同语言直接的接口。所以有人说,Pig包括Pig InterfacePig latin两部分。好看下边这个图:

Hadoop(六)——子项目Pig_编程


    二,Pig两种运行模式:


        1,本地模式:所有文件和执行过程都在本地执行,一般用于测试程序。开启本地模式:pig -x local


        2MapReduce模式:实际工作模式,Pig将查询翻译为MapReduce作业,然后在Hadoop集群上执行。

     

    三,安装Pig:


        1,下载解压:到Apache官网下载Pig,我下载的是:pig-0.15.0.tar.gz ,放到了Hadoop的同路径下(自己定);解压:tar-xvf pig-0.15.0.tar.gz


        2,设置环境变量:vi/etc/profile   设定pigbin路径和Jdk的路径即可。重启即可完成本地模式安装.

   Export PATH=$PATH:/home/ljh/pig-0.15.0/bin

   Export JAVA_HOME=/usr/jdk1.8.0_51

 

        3MapReduce模式配置,设置hadoop的相关环境变量,重启,直接使用pig进行MapReduce模式运行。

           ExportPATH=$PATH:/home/ljh/pig-0.15.0/bin/home/ljh/hadoop-1.2.1/bin

           ExportJAVA_HOME=/usr/jdk1.8.0_51

           ExportPIG_CLASSPATH=/home/ljh/hadoop-1.2.1/conf/

 

    四,grund shell命令:


    进入grunt,可以使用类似Linux命令进行各种操作,和linux很像的,大家实验一下即可:

    例如:ls,cd catlinux完全一样,只不过是在hadoop的环境下;

          copyToLocal将文件复制到本地,copyFromLocal从本地复制文件到hadoop环境;

          sh,用来执行操作系统的命令,例如:sh  /usr/jdk/bin/jps。好看下边一个图,不懂的可以查下。

Hadoop(六)——子项目Pig_编程_02


    五,pig的数据模型,和传统数据的模型简单对比:

                

Pig

数据库

Bag

Tuple

Field

属性


      注意:pig同一个bag里边的各个tuple可以由不同数量不同类型的field,和传统数据库是不一样的。

 

    六,pig latin(类似与SQL的向数据流的语言)


      1,常用语句:

Hadoop(六)——子项目Pig_编程_03

       2,对应各种SQL,看此篇博客,很好:http://guoyunsky.iteye.com/blog/1317084


       3,更多语法,看此篇博客,很详细:http://blackproof.iteye.com/blog/1791980

      

     pig latin就是一种语言,而且是相对来说比较简单语言,在我们使用的时候,我们现查现用即可。无在乎对数据的各种查询,过滤等。

 

    小结:好,pig的知识相对来说比较少,安装容易,使用方便,需要多学的就是pig latin这个脚本语言的熟练,更多的各种语法,会查会用即可。Pig,hadoop的上层衍生框架,使操作hadoop多了一种方式,现在有了:javamapreduce,pigpig latin,当然还有后边的hiveHiveql,后边会讲到。总而言之,多理解,多看各种资料,多实践……