用了Elasticsearch,一口气上5T

ES索引的压缩方式,动态更改后的机制是怎么样的

Elasticsearch | 作者 dzper | 发布于2021年06月02日 | 阅读数:1619

在使用过程中想要通过对warm数据进行更换压缩方式(default => best_compression)来达到优化磁盘空间的目的。比如已经写了一亿个文档的索引,不会在被写入了,想要通过更换压缩方式来对已经建立的索引进行重建,如果不force merge就不会达到减少空间的目的,但是force merge之后好像根据分片数量的不同会导致空间优化的比率不一致。所以好奇动态更改完压缩方式之后索引的数据是会全部进行重新压缩还是怎么个压缩机制呢?
已邀请:

要回复问题请先登录注册