遇到的问题
我们的hadoop集群在运作过程中部分节点报错local-dirs are bad
原因
hadoop集群硬盘目录默认的使用阈值是90%
空间不足,目录使用率超过阈值了90%了
解决方式
调整yarn的参数
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage
把比例调高到98%
但是这种方式治标不治本,最好还是清理hadoop集群的空间,腾出硬盘空间。
张小凡vip 博主文章分类:遇到问题解决方案集锦 ©著作权
文章标签 hadoop local dirs are bad hadoop集群 文章分类 代码人生
我们的hadoop集群在运作过程中部分节点报错local-dirs are bad
hadoop集群硬盘目录默认的使用阈值是90%
空间不足,目录使用率超过阈值了90%了
调整yarn的参数
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage
把比例调高到98%
但是这种方式治标不治本,最好还是清理hadoop集群的空间,腾出硬盘空间。
1.docker 设置国内镜像源 国内加速地址有: Docker中国区官方镜像http
整理k8s部署遇到问题
part1: error C2220: 警告被视为错误。
文章目录JSONjson增删改查JSONjson增删改查
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M