你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
分享
文章
活动
登录
Q:有两个人掉到陷阱里了,死的人叫死人,活人叫什么?
为什么filebeat的data目录下会有个filebeat.lock文件
Beats
| 作者
vickluky
| 发布于2019年12月23日 | 阅读数:
4834
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
在linux上执行filebeat命令收集日志,启动filebeat服务后,会生成一个data目录。但在data目录里,生成了一个filebeat.lock文件。请问大佬们,这个lock文件是什么文件?为什么会生成这个文件?
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
vickluky
赞同来自:
这个问题,我自己找到原因了。
打开filebeat运行log,发现是filebeat运行所在的服务器上没有配置kafka的hosts。
此问题,解决了。
要回复问题请先
登录
或
注册
发起人
vickluky
活动推荐
Jun
17
搜索客 Meetup 讲师招募(长期有效)
线上
·
6-17 周一
·
进行中
Nov
30
【活动报名】ClickHouse Beijing User Group 第2届 Meetup
北京
·
11-30 周六
·
报名中
相关问题
elasticsearch 设置 node.data: false 依然有数据
elasticsearch 每个shard对应的文件含义
path.data 配置了多个路径后 es的存储和获取机制是什么
kibana分析nginx日志,还在纠结用filebeat还是logstash
filebeat链接kafka,kafka死掉会出现数据丢失吗?
怎么设置让索引文件全部在内存中查询
在Elasticsearch 6.1.3版本中,发现translog文件过多导致异常
使用elasticsearch-rtf,修改elasticsearch.yml文件后无法启动es
es集群配置最优的data节点数量和分片数量是多少?
Filebeat与kafka集成
logstash 多日志文件监控
问题状态
最新活动:
2019-12-23 18:20
浏览:
4834
关注:
1
人
1 个回复
vickluky
赞同来自:
打开filebeat运行log,发现是filebeat运行所在的服务器上没有配置kafka的hosts。
此问题,解决了。