最近做实验需要在Linux系统安装Hadoop,由于我之前就想在window上安装,所以借此机会先在window上安装再在Linux安装。
个人比较喜欢安装比较新的东西,所以选择Hadoop3.1.3
准备工具 :
1、jdk8,这里不要用其他jdk了,会出现一些其他问题的,我用jdk11有些包就找不到,好像jdk9都不行
2、Hadoop3.1.3,官网下载,也可以下载其他的3.0以上的版本,3.0以下的版本安装有些不太一样,下载地址Hadoop3.1.3 3、Hadoop3.1.3在window运行的工具winutils,下载地址winutils
注意:winutils有与之对应的Hadoop,如果是3.0以下的可能不行,尽量找相对应的版本吧
Hadoop安装:
jdk的安装不用说了,能够想到安装Hadoop的哪个不是安装jdk的,只要安装的是jdk8的就行
Hadoop的安装和jdk的安装是一致的
1、系统变量中建立HADOOP_HOME变量,然后赋值你的安装路径
2、在path变量中添加Hadoop的bin
3、控制台输入hadoop version,输入版本就说明安装成功
修改配置文件:
配置之前先创建一些文件夹
然后在data文件夹下面再创建两个文件夹
需要配置的文件 在安装路径的etc文件夹下面
1、hadoop-env.cmd文件:如果你的jdk路径中没有空格,那么这个可以不用修改,如果包含了空格,比如:
这里以安装目录为C:Program FilesJavajdk1.8.0_181为例,因为Program Files中存在空格,若是直接使用会出现错误,可以下面两种方式之一进行处理:
只需要用PROGRA~1 代替Program Files,即改为C:PROGRA~1Javajdk1.8.0_18
或是使用双引号改为 “C:Program Files”Javajdk1.8.0_181
2、core-site.xml文件:添加一下代码
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
3、hdfs-site.xml文件:添加一下文件,路径改成自己的安装路径
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/E:/Hadoop/hadoop-3.1.3/hadoop-3.1.3/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/E:/Hadoop/hadoop-3.1.3/hadoop-3.1.3/data/datanode</value>
</property>
</configuration>
4、mapred-site.xml文件:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
5、yarn-site,xml文件
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>1024</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>1</value>
</property>
</configuration>
格式化节点:hdfs namenode -format
替换文件:
1、打开winutils文件,把里面的bin文件复制到hadoop的安装路径,替换掉原来的bin文件
2、按照路径找到该文件
把它复制到上一级目录,即
回到hadoop安装目录,运行该文件
出现下面四个窗口就是 成功了,注意每个窗口标题的后面的名称,比如yarn nodemanager,如果没有出现则是失败
然后浏览器访问下面两个网址:
访问成功:
上网折腾了很久,最后参考这篇文章弄出来的