无论才能、知识多么卓著,如果缺乏热情,则无异纸上画饼充饥,无补于事。

logstash往kafka里同步数据的时候kafka经常超时,然后logstash会停止

Logstash | 作者 aoliao_paopao | 发布于2018年05月30日 | 阅读数:4284

报错信息
[2018-05-30T14:37:07,162][INFO ][org.apache.kafka.clients.producer.KafkaProducer] [Producer clientId=producer-1] Closing the Kafka producer with timeoutMillis = 9223372036854775807 ms.

[2018-05-30T14:37:07,189][INFO ][logstash.pipeline        ] Pipeline has terminated {:pipeline_id=>"main", :thread=>"#<Thread:0x51c394c6 run>"}
已邀请:

要回复问题请先登录注册