系统环境:

windows 7

apache maven 3.1.0

scala 2.10

jdk 1.7.0_40

spark 0.9.0-incubating

 

引言

如今JVM系的开源项目均引入了使用maven进行版本管理,Spark也不例外,今天就使用maven来对Spark进行构建。

Spark建议使用Maven3系列进行编译,并且要求Java版本最低为1.6。

 

编译

Maven内存配置

Spark编译可能比其他项目更耗内存,建议为maven配置较大内存,推荐的内存为2g,最大永久区内存为512m,可以使用一下命令来配置:


[html]  view plain copy


1. export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"



如果你使用的是windows系统,也可以在mvn.bat中找到:


[html]  view plain copy


1. @REM set MAVEN_OPTS=-Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=8000

在其后添加 :


[html]  view plain copy



    1. -Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m



    如果内存配置不够大,可能在构建时报如下错误:


    [html]  view plain copy



      1. [INFO] Compiling 203 Scala sources and 9 Java sources to /Users/me/Development/spark/core/target/scala-2.10/classes...  
      2. [ERROR] PermGen space -> [Help 1]  
      3.   
      4. [INFO] Compiling 203 Scala sources and 9 Java sources to /Users/me/Development/spark/core/target/scala-2.10/classes...  
      5. [ERROR] Java heap space -> [Help 1]


       

      指定Hadoop版本


      Spark依赖于HDFS存储数据,而HDFS使用的protobuf版本又不一致,所以应该为我们所构建的Spark指定对应的HDFS版本,这个版本需要和你集群中所使用的HDFS版本一致。Spark默认对应的Hadoop版本为1.0.4,你可以在maven命令中使用-Dhadoop.version=${your.version}来指定你的版本号。

      如果你使用的是Hadoop2.x,0.23.x版本或者Cloudera的CDH MRv2,那么需要在编译命令中使用-Pyarn-alpha或者-Pyarn来指定。另外,还需要指定yarn的版本,同样使用-Dyarn.version=${your.version}完成。

      注意:以上配置也可以通过修改pom.xml文件实现,方法是在pom.xml文件里找到-P之后对应的profile标签,修改hadoop.version和yarn.version对应的value即可。

      命令行配置的一个完整示例如下:


      [html]  view plain copy

      1. mvn -Pyarn -Dhadoop.version=2.2.0 -Dyarn.version=2.2.0 -DskipTests clean package


       

      指定SCALA_HOME


      Spark编译需要调用scalac,你需要在命令行中引入SCALA_HOME变量,或者将其添加系统变量中(添加方法再次不赘述)。

       

      如果编译完毕,前台输出如下字样,说明编译成功。


      [html]  view plain copy



        1. [INFO] ------------------------------------------------------------------------  
        2. [INFO] Reactor Summary:  
        3. [INFO]   
        4. [INFO] Spark Project Parent POM .......................... SUCCESS [9.014s]  
        5. [INFO] Spark Project Core ................................ SUCCESS [10:12.198s]  
        6. [INFO] Spark Project Bagel ............................... SUCCESS [7:22.175s]  
        7. [INFO] Spark Project GraphX .............................. SUCCESS [2:20.119s]  
        8. [INFO] Spark Project ML Library .......................... SUCCESS [3:22.775s]  
        9. [INFO] Spark Project Streaming ........................... SUCCESS [2:35.244s]  
        10. [INFO] Spark Project Tools ............................... SUCCESS [23.091s]  
        11. [INFO] Spark Project REPL ................................ SUCCESS [1:06.345s]  
        12. [INFO] Spark Project YARN Parent POM ..................... SUCCESS [4:01.606s]  
        13. [INFO] Spark Project YARN Stable API ..................... SUCCESS [1:01.500s]  
        14. [INFO] Spark Project Assembly ............................ SUCCESS [3:24.366s]  
        15. [INFO] Spark Project External Twitter .................... SUCCESS [37.682s]  
        16. [INFO] Spark Project External Kafka ...................... SUCCESS [44.005s]  
        17. [INFO] Spark Project External Flume ...................... SUCCESS [37.477s]  
        18. [INFO] Spark Project External ZeroMQ ..................... SUCCESS [41.711s]  
        19. [INFO] Spark Project External MQTT ....................... SUCCESS [34.665s]  
        20. [INFO] Spark Project Examples ............................ SUCCESS [2:48.186s]  
        21. [INFO] ------------------------------------------------------------------------  
        22. [INFO] BUILD SUCCESS  
        23. [INFO] ------------------------------------------------------------------------  
        24. [INFO] Total time: 42:03.562s  
        25. [INFO] Finished at: Tue Apr 08 23:57:31 CST 2014  
        26. [INFO] Final Memory: 60M/247M  
        27. [INFO] ------------------------------------------------------------------------


         

        纯净版编译


        使用-Pyarn或者-Pyarn-alpha编译出来的是一个完整的包,存放在./assembly/target/scala-2.10下,这个包包含了Spark编译得到的jar包,以及编译过程中所依赖的包。

        如果你只想得到Spark的包,而不需要其依赖的Hadoop等,那么可以使用-Pbigtop-dist这个选项指定纯净版的profile(在./assembly/pom.xml中标识)。

         

        编译得到Spark的jar包之后,你就可以调用其API进行二次开发啦!

         

        参考:

        http://spark.apache.org/docs/latest/building-with-maven.html

        http://hi.baidu.com/startgo123/item/9b95dc0af3ae8c3ca3332aa4