Hadoop集群肯定还是要在linux下使用好些,但是对于想尝鲜的开发者或者上层应用开发来说,在windows下搭建一个单节点的应用也是蛮有必要的,当然只作为开发测试环境。
一、环境准备
- JDK安装
- Hadoop安装包(官网下载)
- hadooponwindows-master(可使配置更简洁)
二、安装配置
1、以管理员身份解压Hadoop安装包,
2、配置Hadoop环境变量,
我的电脑 --> 属性 --> 高级系统设置 --> 高级 --> 环境变量,新建HADOOP_HOME,然后将%HADOOP_HOME%\bin添加到Path中。
3、新建data(下面建俩子文件夹namenode和datanode)和tmp目录,
4、修改启动类 hadoop-env.cmd,
主要是设置JAVA_HOME的路径,我的文件目录在 E:\Dev2\hadoop\hadoop-2.6.0\etc\hadoop,(这里注意一下:如果jdk路径中有“Program Files”,则将Program Files改为 PROGRA~1,否则会报错)
5、修改配置文件(core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml)
核心操作就在这四个配置文件上面了,(如果下载了hadooponwindows-master,解压后可以直接覆盖bin和etc目录,然后只修改这四个文件夹中的路径信息就可以了)
(1)core-site.xml
(2)hdfs-site.xml
(3)mapred-site.xml
(4)yarn-site.xml
6、启动格式化HDFS
首先,hadoop version,查看是否能正常运行,
然后,执行 hdfs namenode -format
格式化之后,namenode文件里会生成一个current文件,则格式化成功。
三、Hadoop启动
在cmd中执行 start-all.cmd 命令,启动Hadoop,路径:E:\Dev2\hadoop\hadoop-2.6.0\sbin。
运行成功后,会出现四个窗口,分别是:yarn-resourcemanager、yarn-nodemanager、hadoop-namenode、hadoop-datanode。
如上,则恭喜,启动成功。
四、HDFS操作测试
安装好了Hadoop环境,接下来我们就敲下hadoop命令,上传几个文件操作实战一下。
1、创建目录
hadoop fs -mkdir hdfs://localhost:9000/my/
hadoop fs -mkdir hdfs://localhost:9000/my/testinput
2、上传文件
hadoop fs -put E:\test01.txt hdfs://localhost:9000/my/testinput
hadoop fs -put E:\test02.txt hdfs://localhost:9000/my/testinput
3、查询文件
hadoop fs -ls hdfs://localhost:9000/my/testinput
查询到我们刚刚上传的文件啦,恭喜,测试成功。
五、管理页面
Hadoop自带了web UI管理页面,
1、资源管理(localhost:8088)
2、节点管理(localhost:50070)
总体来说Hadoop在windows下的安装还是比较简单的,只要按部就班就可以了。