在 HADOOP_HOME/conf/ hadoop-env.sh 里面,修改配置如下:
Hadoop namenode无法启动
原创
©著作权归作者所有:来自51CTO博客作者dogegg250的原创作品,请联系作者获取转载授权,否则将追究法律责任
export HADOOP_PID_DIR=/home/hadoop/pids
pid文件默认在/tmp目录下,而/tmp是会被系统定期清理的,所以Pid文件被删除后就no namenode to stop
core-site.xml添加hadoop.tmp.dir
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/lex/hadoop/namenode</value>
</property>
</configuration>
datanode为0的话,把/home/lex/hadoop/namenode目录删除掉,格式式,再启动就可以了
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
Docker修改容器的时间
Docker容器内系统时间不准确,可能会导致一系列问题,尤其是在依赖于时间戳进行操作的应用和服务中。
系统时间 Docker 时间同步 后端 服务器 -
vncserver端口的修改
vncserver 端口 修改
职场 修改 端口 休闲 vncserver -
hadoop3的默认端口 hadoop namenode端口
一、 Hadoop2.8.51、 HDFS的一些访问端口和启动方式启动 start-dfs.sh端口号 &n
hadoop3的默认端口 大数据 hadoop spark 端口号