filebeat监控30个文件(每天一个),然后扔给logstash处理,然后到es中,在es中根据数据中的logdate字段建不同的索引,如:filebeat-2019-01-03等。比如说这30个文件是离线的日志,此时建索引的速度非常慢。
如果将30个原始文件最后只建一个索引,会很快。
如果将30个原始文件合并成一个文件去处理,最后建30个索引,也会很快。
求解。谢谢
如果将30个原始文件最后只建一个索引,会很快。
如果将30个原始文件合并成一个文件去处理,最后建30个索引,也会很快。
求解。谢谢
1 个回复
doctor
赞同来自: