Well,不要刷屏了

elasticsearch集群索引分片的重新规划

Elasticsearch | 作者 artomu | 发布于2017年07月19日 | 阅读数:4314

由于集群的规模的扩大,以及业务数据越来越重。现在的规模一天一个索引大小2T,8个数据节点,分配了8个分片,平均每个分片的大小在180G左右。 请问一下,扩容到48个节点,分配48个分片,合理么?

QQ图片20170719101203.png


QQ图片20170719101329.png

 
已邀请:

medcl - 今晚打老虎。

赞同来自: rockybean

从8个节点到48个节点,步子有点大,合理与否要用数字来说话,但不是你给的这些数字,你可以安装一个xpack,使用免费的Monitoring功能,从当前运行的各项指标来分析评估扩容是否合理

novia - 1&0

赞同来自:

一天2T,保存多少天呢?总数据大小预计是多少

juneryang

赞同来自:

请问你是如何得到每个索引的分片信息(图一)的?

cjwang

赞同来自:

你是使用的是es那个版本的,一个shard这么大 搜索响应时间是多长? 你使用的store type是什么 niofs 还是mmapfs

要回复问题请先登录注册