【大数据】elasticsearch分片数量超出限制
精选
原创
©著作权归作者所有:来自51CTO博客作者DonotCTR的原创作品,请联系作者获取转载授权,否则将追究法律责任
1、问题概述
elasticsearch突然无法创建索引并且数据无法写到es,但是还是有一部分可以写入数据
filebeat---》kakfa-----》logstash-----》elasticsearch
排查思路:
1、排查相关filebeat是否服务正常
systemctl status filebeat
2、检查filebeat数据是否正常推送到kafka
按分组查看topic
/usr/local/kafka/bin/kafka-consumer-groups.sh --bootstrap-server 172.16.0.6:9092 --describe --group logstash
--bootstrap-server 根据实际情况修改
--describe --group 根据实际情况修改
查看所有的topic
/usr/local/kafka/bin/kafka-topics.sh --zookeeper 172.16.0.6:2181 --list
查看消息内容
/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server linux1:9092 --topic nginxlogtest --from-beginning
3、检查logstash是否正常
从上图报错中显示:
分片数量超过限制数1000
原因:
ELASTICSEARCH7版本及以上的,默认只允许1000个分片,因为集群分片数不足引起的。
2、解决方式
在kibana -> 开发者工具 -> Console页签下执行如DSL下语句
PUT /_cluster/settings
{
"persistent": {
"cluster": {
"max_shards_per_node":10000
}
}
}