你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
没有找到相关结果
ancestor - 屌丝
赞同来自: easesstone
{ "from": 0, "size": 1 }
y676360
ilangge
赞同来自:
{ "from": 0, "size": 0, "_source": { "includes": [ "COUNT" ], "excludes": [] }, "aggregations": { "COUNT(_id)": { "value_count": { "field": "_id" } } } }
medcl - 今晚打老虎。
要回复问题请先登录或注册
4 个回复
ancestor - 屌丝
赞同来自: easesstone
y676360
赞同来自: easesstone
我们使用过早期的es-hadoop,觉得吞吐真的问题很大,spark 与 es放一起太不协调啦。。。。
ilangge
赞同来自:
简单优化下就行:
select count(1) from pruduct
在这个地址:http://www.nlpcn.org:9999/web/#
测试下:
select count(_id) from pruduct
转化为查询脚本为:
肯定速度很快的。要20分钟,写法的问题,自己找找sparksql生成的es scrip是什么,找找原因。
查询脚本本身不难,多了解下有好处。
medcl - 今晚打老虎。
赞同来自: