使用 shuf 来打乱一个文件中的行或是选择文件中一个随机的行。

logstash压缩传输问题

Logstash | 作者 niuhongkuan | 发布于2017年12月06日 | 阅读数:4262

目前现有的使用是logstash-redis-logstash-elasticsearch-kibina,由于生成环境日志文件总量过多(约52G/日),占用网络资源。文本压缩比例较高,希望压缩后在传输。
已邀请:

luohuanfeng

赞同来自:

有没有试过filebeat+resid(kafka)+logstash?总量多但并不是一起传过来的吧?

要回复问题请先登录注册