现在es集群4个节点,有一个应用需求需要批量更新索引中的某个字段。采用bulk+update的更新方式,发现性能较低,1分钟只有1w条。有没有什么优化措施?
日志如下:
updating index_buffer_size from [466.9mb] to [408.5mb]
merge segment [_5rkm] done: took [48.2s], [248.7 MB], [560,461 docs]。
---------
update本身就是要先删除旧数据,创建新数据的过程,理论上比insert是要慢,但是有没有加快的方法呢?
日志如下:
updating index_buffer_size from [466.9mb] to [408.5mb]
merge segment [_5rkm] done: took [48.2s], [248.7 MB], [560,461 docs]。
---------
update本身就是要先删除旧数据,创建新数据的过程,理论上比insert是要慢,但是有没有加快的方法呢?
3 个回复
nodexy - Another developer !
赞同来自: zhengfengshaw
比如我有一个搜索服务,就是叫 a_v1, alias 为 a; 每天全量更新的时候就创建一个 a_v2 ,然后把alais a指向a_v2即可。
jingkyks - 水果铅笔2B橡皮
赞同来自:
medcl - 今晚打老虎。
赞同来自: