你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
怎么又是你
生产机器节点&内存分配
Elasticsearch
| 作者
shandian811
| 发布于2017年11月01日 | 阅读数:
2530
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
5台256G内存机器每台分配几个data 节点比较好,(目前是每台1个master 3个data 节点)
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
novia
-
1&0
赞同来自:
机器配置:一台256G内存机器,不知道硬盘多大
分配建议:1个master 8G,8个data节点,每个31G
5台机器就是5个master,40个data,这样的集群以及很大了。如果并发很多,可以考虑再增加一些client节点。
另,机器分好了,就是分片,如果数据量相对固定,那就40个主分片,40个副本,如果数据增长较快,可以考虑预留一些分片数量。
这样的集群感觉很大了,如果数据量不多,应该不用这么多机器的。
要回复问题请先
登录
或
注册
发起人
shandian811
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
怎么解决elasticsearch集群占用太多虚拟内存(VIRT)的问题?占用了几十个G,有什么可以对它进行限制的相关设置吗?
关于单个机器分片数容量问题
15台机器,日志量200G左右,集群规模多大合适?
如何设置分配给elasticsearch的内存大小?
新增节点数据均衡.
Elasticsearch内存配置成系统内存的50%是否合理?
es集群配置最优的data节点数量和分片数量是多少?
es节点停止只能杀进程吗?
Logstash吞吐量求解(从Kafka消费永远赶不上生产速度)
"cluster.routing.allocation.disk.watermark.low"参数为什么不能禁止向节点分片分片?
大佬们,有一个疑惑,既然在写入文档时,有机会和时间去写translog到磁盘,为什么还要再费劲去写内存呢?
问题状态
最新活动:
2017-11-01 16:36
浏览:
2530
关注:
4
人
1 个回复
novia - 1&0
赞同来自:
分配建议:1个master 8G,8个data节点,每个31G
5台机器就是5个master,40个data,这样的集群以及很大了。如果并发很多,可以考虑再增加一些client节点。
另,机器分好了,就是分片,如果数据量相对固定,那就40个主分片,40个副本,如果数据增长较快,可以考虑预留一些分片数量。
这样的集群感觉很大了,如果数据量不多,应该不用这么多机器的。