即使是不成熟的尝试,也胜于胎死腹中的策略。

spark向ES写入数据不受控制

Elasticsearch | 作者 ly898197688 | 发布于2019年05月17日 | 阅读数:2045


5cd563e1954764babdfc32eba4ff3c7.png


9113695281ea39e283fc204f71b55fb.png

分配的core是25个 但是实际使用了1002个
已邀请:

ganzidong - 80后老运维

赞同来自:

这应该是你的spark里面配置了动态资源分配了吧,你试下把spark.dynamicAllocation.enabled参数设置成false。

要回复问题请先登录注册