你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
发现
分享
文章
活动
登录
Well,不要刷屏了
如何优化频繁变化数据
Elasticsearch
| 作者
hufuman
| 发布于2018年01月15日 | 阅读数:
5544
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
比方说的索引是酒店数据,酒店的价格变化非常频繁,如果完全落地到ES里,会不会导致segment过多,进而影响ES整体性能?如果会的话,有什么解决方案吗
我们以前直接用的lucene,这种变化非常频繁的数据是放在内存里自己维护的
没有找到相关结果
已邀请:
与内容相关的链接
提交
2 个回复
kennywu76
-
Wood
赞同来自:
变化频繁也不会是每分钟变化很多次吧,我的理解一个酒店产品一天做多变化几次? 只要不是一个bulk写入批次里包含同一个产品的多次价格变化,不会导致segment过多的问题。
luyuncheng
赞同来自:
1. 如果在刷新频率里面变化过多,可以在前置在加一层做cache,然后再统一刷入ES。
2. 频繁的更新同一个KEY,会导致deleted数量变多,如果cpu允许,可以调整段合并的参数,将合并的速度加快
3. Seg的多少可以按照2M*10 + 20M*10 + 2G*10 + 大于2.5G的个数来估算
要回复问题请先
登录
或
注册
发起人
hufuman
活动推荐
Aug
15
2025 Zabbix 中国峰会
上海
·
8-15 周五
·
报名中
Oct
17
第27届 GOPS 全球运维大会暨研运数智化技术峰会 · 上海站
上海
·
10-17 周五
·
报名中
相关问题
3千万数据,如何设计集群
elasticsearch 设置 node.data: false 依然有数据
集群稳定性的一些问题(一定量数据后集群变得迟钝)
跨集群数据同步方案讨论
Elastic对类似枚举数据的搜索性能优化
5.X 版本多type 的 es 数据迁移到6.1
如何清理Elasticsearch特定时间段数据?
《Elasticsearch源码解析与优化实战》这本书中,有关6.x的新版副本恢复方法.
聚合查询如何优化
es scroll查询全部数据问题
新增节点数据均衡.
问题状态
最新活动:
2018-01-21 15:57
浏览:
5544
关注:
9
人
2 个回复
kennywu76 - Wood
赞同来自:
luyuncheng
赞同来自:
2. 频繁的更新同一个KEY,会导致deleted数量变多,如果cpu允许,可以调整段合并的参数,将合并的速度加快
3. Seg的多少可以按照2M*10 + 20M*10 + 2G*10 + 大于2.5G的个数来估算