你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
shwtz - 学物理想做演员的IT男
赞同来自: zmc
pony_maggie - 公众号:犀牛饲养员的技术笔记
赞同来自:
JingSQ - 招聘Elasticsearch内核研发工程师
viewsite
要回复问题请先登录或注册
ES PAAS、JuiceFS
5 个回复
shwtz - 学物理想做演员的IT男
赞同来自: zmc
我的解决办法是把total_shards_per_node值设置为比平均数大1个,比如3个节点,3个分片(带上副本一共6个), total_shards_per_node=3,这样就不会出现这个问题。
由于es集群的均衡策略会尽可能使每个节点的分片总数差不多,所以整体来看,这样问题不大。
如果不这么设置的话,基本上每天都要去做手动allocation的操作,烦得不得了。
pony_maggie - 公众号:犀牛饲养员的技术笔记
赞同来自:
pony_maggie - 公众号:犀牛饲养员的技术笔记
赞同来自:
JingSQ - 招聘Elasticsearch内核研发工程师
赞同来自:
viewsite
赞同来自: