问题
造成这个问题的原因可能是使用hadoop namenode -format格式化时格式化了多次造成那么spaceID不一致
解决方案
停止集群(切换到安装目录下)
sbin/stop-all.sh
删除以下目录,再重新初始化
rm -rf /opt/module/hadoop-3.1.3/data
rm -rf /opt/module/hadoop-3.1.3/logs
造成这个问题的原因可能是使用hadoop namenode -format格式化时格式化了多次造成那么spaceID不一致
停止集群(切换到安装目录下)
sbin/stop-all.sh
删除以下目录,再重新初始化
rm -rf /opt/module/hadoop-3.1.3/data
rm -rf /opt/module/hadoop-3.1.3/logs
上一篇:hadoop集群启停脚本
下一篇:flink
Sometimes copy files to HDFS or running a MapReduce jobs you might receive an error as below:During file copy to HDFS the error and call stack look like as below:File /platfora/uploads/test.xml could
今天使用request.getRemoteAddr()获取IP时,得到了0:0:0:0:0:0:0:1,最后通过查询发现是
周末机房断电,然后hadoop爆出如题的错误
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M