要不要再翻翻文档呢?

大日志量 一天大概500g 架构可行吗?

Elasticsearch | 作者 zhangchi | 发布于2018年02月12日 | 阅读数:3183

版本2.2
我想知道 现在我们6台128g内存的物理机上了12个节点 跑了一个最大的索引12个分片 还有小索引不管了 没有跑副本 预计日志量持续增加 我打算在扩容6台256g内存的机器 可行吗? 节点跟分片怎么弄?我在建立新的索引建立18个分片加副本 老的索引不变 能被查询吗?
在架构上 能稳定吗?
已邀请:

taoyantu - it

赞同来自:

分片数 6个就可以了。
内存大的话,可以在一个机器上多部署几个node,会更好的利用cpu和内存。
500G日志,可以应付。磁盘是 SSD的更好。

王庆焕 - https://discuss.elastic.co/u/wangqinghuan/

赞同来自:

1,因为每天的数据量还是很大的,所以可以按照时间分索引
2,因为你的机器配置不同,可以考虑使用热暖区架构,暖区(配置低的机器)存放老的索引,热区(配置高的机器)存放新的索引

xiaoke - http://blog.51cto.com/kexiaoke

赞同来自:

才500G 的量,这配置绰绰有余呀

要回复问题请先登录注册