1、下载并编译spark源码 下载spark http://spark.apache.org/downloads.html 我下载的是1.2.0版本 解压并编译,在编译前,可以根据自己机器的环境修改相应的pom.xml配置,我的环境是hadoop2.4.1修改个小版本号即可,编译包括了对hive、yarn、gangl
1、实验环境 Centos6.42、安装rrdtool(注rrdtool-1.5.3不支持3.6.1)#安装ganglia相关包 yum -y install apr-devel apr-util check-devel cairo-devel pango-devel li
上一篇介绍了hadoop2.4.1的编译过程,以及hive和spark的编译,这次简单介绍hbase的编译过程。hbase0.98.8默认使用hadoop2.2.0进行编译,笔者的hadoop环境是2.4.1版本,为避免包不一致引发的各种错误,需要对hbase进行重新编译。1、生成编译使用的pom文件 修改$HBASE_HOME/pom.xml,<
-----------hadoop编译1、编译环境 CentOS6.5 64位 jdk1.7.0_71 maven-3.2.3 hadoop2.4.12、安装JDK,maven &n
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号