虚拟机内jdk安装以及hadoop集群环境安装

一、jdk安装

(1):将所给的jdk-8u的压缩包传进虚拟机内(可以使用FileZilla进行传输)

虚拟机安装hadoop详细步骤 虚拟机中安装jdk和hadoop_hdfs


(2):在linux系统下的opt目录中查看软件包是否导入成功

[root@hadoop101opt]# cd software/     //进入文件夹目录下
[root@hadoop101software]# ls		//查看自己的目录下的文件
jdk-7u79-linux-x64.gz  hadoop-2.7.2.tar.gz

(3):解压jdk到指定目录下

[root@hadoop101software]tar -zxf jdk-7u79-linux-x64.gz -C /opt/module/  //解压到/opt/module/目录下

(5):配置jdk环境变量

  • 先获取jdk路径
[root@hadoop101jdk1.7.0_67]# pwd  //进入到jdk的文件夹下获取jdk路径
/opt/module/jdk1.7.0_79
  • 打开/etc/profile文件
[root@hadoop101 jdk1.7.0_79]# vi /etc/profile
在profie文件末尾添加jdk路径:
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.7.0_79
export PATH=$PATH:$JAVA_HOME/bin
  • :wq保存后退出
  • 让修改后的文件生效
[root@hadoop101 jdk1.7.0_79]# source  /etc/profile
  • 完成检查是否安装完(如果java –version不能用就重启)
[root@hadoop101 jdk1.7.0_79]# java -version   //测试jdk安装成功,并检查版本号
java version "1.7.0_79"
[root@hadoop101 jdk1.7.0_79]# reboot    //重启

二、hadoop的安装和环境变量的配置

(1):将所给的Hadoop的压缩包放在虚拟机里面

(2):解压安装文件到指定文件夹下

[root@hadoop software]# tar -zxf hadoop-2.7.2.tar.gz -C /opt/module/    //将文件夹解压到/opt/module/路径下

(3):查看是否解压成功

[root@hadoop software]# ls /opt/module/
hadoop-2.7.2

(4):配置hadoop中的hadoop-env.sh

  • Linux系统中获取jdk的安装路径
[root@hadoop101 jdk1.7.0_79]# echo $JAVA_HOME
/opt/module/jdk1.7.0_79
  • 修改hadoop-env.sh文件中的JAVA_HOME路径
export JAVA_HOME=/opt/module/jdk1.7.0_79

(5):将hadoop添加到环境变量

  • 获取hadoop安装路径
[root@ hadoop101 hadoop-2.7.2]# pwd
/opt/module/hadoop-2.7.2
  • 打开
root@ hadoop101 hadoop-2.7.2]# vi /etc/profile
在profie文件末尾添加jdk路径:(shitf+g)
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
  • 保存退出
:wq
  • 让修改后的文件生效
root@ hadoop101 hadoop-2.7.2]# source /etc/profile
  • 检测hadoop是否安装完成
hadoop

三、hdfs集群的安装

(1):修改hadoop-env.sh

export JAVA_HOME=/root/apps/jdk1.8.0_60

(2):修改core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hdp-01:9000</value>   <!--修正为自己的主要虚拟机的IP地址-->
</property>
</configuration>

(4):修改hdfs-site.xml

在主要的第一台虚拟机上面的hadoop目录下面创建name和data文件夹

<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hdpdata/name/</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/hdpdata/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hdp-02:50090</value>
</property>
</configuration>

(5)启动HDFS

  • 初始化namenode
hadoop namenode -format
  • 启动namenode进程
hadoop-daemon.sh start namenode
  • 然后在windows中使用浏览器访问namenode提供的web端口50070
http://hdp-01:50070     //写在虚拟机上面配置的ip地址
  • 然后,启动众datanode们(在任意地方)
hadoop-daemon.sh start datanode

 这样一个简单的有关hadoop的hdfs的一个的安装和集群的部署就算完成了,如果能访问50070这个端口的网站就算是可以完成了。

如果上面有写的不太详细的地方大家可以下载资料,资料中有详细的介绍如何安装以及jdk和hadoop的安装包。

资料包链接 提取码: uqc8