Hadoop 编译源码<面试重点>

  • 1. 前期准备工作
  • 1.1 CentOS 联网
  • 1.2 jar包准备(hadoop源码、JDK8、maven、ant、protobuf)
  • 2. jar 包安装
  • 2.1 JDK 解压、配置环境变量 JAVA_HOME 和 PATH,验证 java-version (如下都需要验证是否配置成功)
  • 2.2 Maven 解压、配置 MAVEN_HOME 和 PATH
  • 2.3 ant 解压、配置 ANT_HOME 和 PATH
  • 2.4 安装 glibc-headers 和 g++ 命令如下
  • 2.5 安装 make 和 cmake
  • 2.6 解压 protobuf,`进入到解压后 protobuf 主目录`,/opt/module/protobuf-2.5.0,然后相继执行命令
  • 2.7 安装 openssl 库
  • 2.8 安装 ncurses-devel 库
  • 3. 编译源码
  • 3.1 解压源码到/opt/目录
  • 3.2 进入到hadoop源码主目录
  • 3.3 通过maven执行编译命令
  • 3.4 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下
  • 3.5 编译源码过程中常见的问题及解决方案


1. 前期准备工作

1.1 CentOS 联网

配置CentOS能连接外网。Linux虚拟机pingwww.baidu.com是畅通的
注意:采用root角色编译,减少文件夹权限出现问题

1.2 jar包准备(hadoop源码、JDK8、maven、ant、protobuf)

(1)hadoop-2.7.2-src.tar.gz
(2)jdk-8u144-linux-x64.tar.gz
(3)apache-ant-1.9.9-bin.tar.gz(build工具,打包用的)
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz(序列化的框架)

2. jar 包安装

注意:所有操作必须在root用户下完成

2.1 JDK 解压、配置环境变量 JAVA_HOME 和 PATH,验证 java-version (如下都需要验证是否配置成功)

[root@hadoop101 software]# tar -zxf jdk-8u144-linux-x64.tar.gz -C /opt/module/
[root@hadoop101 software]# vi /etc/profile

#JAVA_HOME:
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin

[root@hadoop101 software]# source /etc/profile

验证命令:java-version

2.2 Maven 解压、配置 MAVEN_HOME 和 PATH

[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-maven-3.0.5]# vi conf/settings.xml
<mirrors>
	<!--mirror
		| Specifies a repository mirror site to use instead of agiven repository. There pository that
		| this mirror serves has an ID that matches the mirror Of element of this mirror. IDs are used
		| for inheritance and direct look up purposes, and must be unique across the set of mirrors.
		|
	<mirror>
		<id>mirrorId</id>
		<mirrorOf>repositoryId</mirrorOf>
		<name>HumanReadableNameforthisMirror.</name>
		<url>http://my.repository.com/repo/path</url>
	</mirror>
	-->
	<mirror>
		<id>nexus-aliyun</id>
		<mirrorOf>central</mirrorOf>
		<name>Nexusaliyun</name>
		<url>http://maven.aliyun.com/nexus/content/groups/public</url>
	</mirror>
</mirrors>
[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile

#MAVEN_HOME
export MAVEN_HOME=/opt/module/apache-maven-3.0.5
export PATH=$PATH:$MAVEN_HOME/bin

[root@hadoop101 software]# source /etc/profile

2.3 ant 解压、配置 ANT_HOME 和 PATH

[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile

#ANT_HOME
export ANT_HOME=/opt/module/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin

[root@hadoop101 software]# source /etc/profile

验证命令:ant-version

2.4 安装 glibc-headers 和 g++ 命令如下

[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers
[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++

2.5 安装 make 和 cmake

[root@hadoop101 apache-ant-1.9.9]# yum install make
[root@hadoop101 apache-ant-1.9.9]# yum install cmake

2.6 解压 protobuf,进入到解压后 protobuf 主目录,/opt/module/protobuf-2.5.0,然后相继执行命令

[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/
[root@hadoop101 protobuf-2.5.0]# ./configure
[root@hadoop101 protobuf-2.5.0]# make
[root@hadoop101 protobuf-2.5.0]# make check
[root@hadoop101 protobuf-2.5.0]# make install
[root@hadoop101 protobuf-2.5.0]# ldconfig
[root@hadoop101 hadoop-dist]# vi /etc/profile

#LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/opt/module/protobuf-2.5.0
export PATH=$PATH:$LD_LIBRARY_PATH

[root@hadoop101 software]# source /etc/profile

2.7 安装 openssl 库

[root@hadoop101 software]# yum install openssl-devel

2.8 安装 ncurses-devel 库

[root@hadoop101 software]# yum install ncurses-devel

到此,编译工具安装基本完成。

3. 编译源码

3.1 解压源码到/opt/目录

[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/

3.2 进入到hadoop源码主目录

[root@hadoop101 hadoop-2.7.2-src]# pwd
/opt/hadoop-2.7.2-src

3.3 通过maven执行编译命令

[root@hadoop101 hadoop-2.7.2-src]# mvn package -Pdist, native -DskipTests -Dtar

等待时间30分钟左右,最终成功是全部SUCCESS,如图2-42所示:

hadoop 项目编译 hadoop源码编译的作用_hadoop

3.4 成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下

[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target

3.5 编译源码过程中常见的问题及解决方案

  1. MAVENinstall时候JVM内存溢出
    处理方式:在环境配置文件和maven的执行文件均可调整MAVEN_OPT的heap大小。(详情查阅MAVEN编译JVM调优问题,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)
  2. 编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令
    (一次通过比较难):
[root@hadoop101 hadoop-2.7.2-src]# mvn package -Pdist, nativeN -DskipTests -Dtar
  1. 报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况