搜索结果正在快递途中

问题一:集群在数据写入过程中为什么会有分片数据不自动均衡分配的现象? 问题二:设置每个索引在一个节点的最大分片数量是否会解决这个问题? 问题三:已经分配失败的分片,如何快速恢复呢?

Elasticsearch | 作者 Yanchao Ma | 发布于2019年07月30日 | 阅读数:2379

我现在有一个六节点的集群,角色配置是data=true,master=true。(索引分片分配方式为:六个分片或四个分片)在线上使用过程中发现(正常使用几周后发现的),集群的负载不均衡,有两个节点的DISK使用量接近98%,其它节点磁盘还有较多剩余。集群看到的现象是磁盘爆满的这两个节点的分片都处于未分配的状态【"details": "failed to create shard, failure IOException[No space left on device]"】。之后在集群上新建6个分片的索引的时候,甚至有些索引的分片全在一个节点上。另外mapping设置的flush_threshold_size为1.6GB,服务器机器内存都是32G,硬盘200G。
已邀请:

bellengao - 博客: https://www.jianshu.com/u/e0088e3e2127

赞同来自:

通过设置total_shards_per_node来均衡分片的分布 https://www.elastic.co/guide/e ... .html;另外通过GET _cluster/settings看下是否特殊的设置导致分片分布不均

要回复问题请先登录注册