es2.3.1集群各节点gc情况不一致
集群情况:
CentOS release 6.5
jdk1.8.0_65
cms gc
五个节点都是16c 16g;节点 堆内存配置为8g
索引:一份1.36G大小的索引;3个shard,4 个备份
elasticsearch.yml中 discovery.zen.ping.unicast.hosts 统一配置为 [ip1, ip2, ip3, ip4, ip5], 各节点的这个配置顺序一致
目前的现象是:
集群上次重启以来已运行19天:
ip1, ip2
full gc 16次, 每次full gc后
used内存不到300M
metaspace和class space的used也基本不变
ip3, ip4, ip5
full gc22次, 每次full gc后,
used内存都会上升,到现在used内存 已经大于2.5G;
metaspace 52M --> 250M+
class space 6M --> 50M+
上一次重启 就是因为频繁的full gc导致es查询效率极低导致;
目前只知道以上现象,但是 不知道是什么原因,也不知道如何下手查找原因?
请大神帮忙分析一下原因或者提供一些寻找原因的思路
集群情况:
CentOS release 6.5
jdk1.8.0_65
cms gc
五个节点都是16c 16g;节点 堆内存配置为8g
索引:一份1.36G大小的索引;3个shard,4 个备份
elasticsearch.yml中 discovery.zen.ping.unicast.hosts 统一配置为 [ip1, ip2, ip3, ip4, ip5], 各节点的这个配置顺序一致
目前的现象是:
集群上次重启以来已运行19天:
ip1, ip2
full gc 16次, 每次full gc后
used内存不到300M
metaspace和class space的used也基本不变
ip3, ip4, ip5
full gc22次, 每次full gc后,
used内存都会上升,到现在used内存 已经大于2.5G;
metaspace 52M --> 250M+
class space 6M --> 50M+
上一次重启 就是因为频繁的full gc导致es查询效率极低导致;
目前只知道以上现象,但是 不知道是什么原因,也不知道如何下手查找原因?
请大神帮忙分析一下原因或者提供一些寻找原因的思路
3 个回复
wengqiankun - es新手
赞同来自:
medcl - 今晚打老虎。
赞同来自:
Yuna - Elasticsearch兼职新司机
赞同来自:
你说的GC问题,希望你能提供多一些数据给大家进行分析。比如节点数,索引的大小,mapping的信息,JVM的配置,然后访问量等一些情况。 这样我们能够从侧面的给出一些建议。
在没有这些数据提供 之前,请问你们是否有聚合操作? 或者大量的wildcardQuery 查询?是否启用dov value特性?