你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
kennywu76 - Wood
赞同来自: rockybean 、Rubricate 、清风凌波 、laigood 、小风 、clifford 、ChrisChan更多 »
赞同来自:
rockybean - Elastic Certified Engineer, ElasticStack Fans,公众号:ElasticTalk
lee62817
juneryang
要回复问题请先登录或注册
80后IT男
6 个回复
kennywu76 - Wood
赞同来自: rockybean 、Rubricate 、清风凌波 、laigood 、小风 、clifford 、ChrisChan更多 »
如果每天200gb日志估计用redis问题不大,但以后量会大很多,推荐用Kafka,主要原因是redis是单线程,一个实例的处理能力受限于一个cpu内核,而多个实例做lb会很麻烦。kafka是集群方式运作,扩容简单得多。另外Kafka的队列是构造在磁盘上的,相比Reidis可以容忍更长的消费端故障时间。我们目前是2台服务器做kafka集群,上面所说的量撑住毫无压力。
kennywu76 - Wood
赞同来自:
rockybean - Elastic Certified Engineer, ElasticStack Fans,公众号:ElasticTalk
赞同来自:
@sdlyjzh 你所说的日志两200G是每天产生量吧? 这个数据量的QPS怎么也得1000了,内存上应该要不小。假设每条日志大小平均1KB,简单计算,1秒就有1MB,如果用一个redis的话,内存设置多少合适呢?
@medcl 在qcon上海的分享上有讲到redis内存撑爆,后来换用了kafka的经验。不知道有无考虑?
最近我也在尝试用es来搭建日志系统,还在犹豫是否用kafka做中间件,看了@medcl 的介绍后,又看到了kafka 省资源这点好处。
目前我碰到的难点在es集群评估上,和楼主的问题一致,希望可以得到一个评估逻辑的解答,谢谢各位!
rockybean - Elastic Certified Engineer, ElasticStack Fans,公众号:ElasticTalk
赞同来自:
我还想问一下,多个data node可以分配在一台机器上吗?这样会有什么不好的地方吗?master node你们用了几个? 关于shard的数目我也想咨询下,我们一天的日志量目前在300G左右,shard做10个可以吧,另外我们不会直接基于es做aggregation的东西,所以是不是shard越多越好呢?
另外kafka消费是自己写消费者程序吧,然后通过es的sdk再索引到elasticsearch吗?还是有现成可用的?
谢谢!
lee62817
赞同来自:
有人有教學嗎
juneryang
赞同来自: