你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
发现
分享
文章
活动
登录
你不会是程序猿吧?
分词问题:华为p 在字典里定义了,但是分词还是分开了
Elasticsearch
| 作者
baiyun
| 发布于2016年08月19日 | 阅读数:
4224
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
华为p 在字典里定义了,但是分词还是分开了
没有找到相关结果
已邀请:
与内容相关的链接
提交
2 个回复
martindu
-
搜披露创始人
赞同来自:
你用的啥分词器?ik?分词模式是ik_max_word还是啥?
夏李俊
赞同来自:
帮顶,貌似IK只支持中文和中文一起,中英混淆,目前我也再找。。。有知情人士么
要回复问题请先
登录
或
注册
发起人
baiyun
活动推荐
Aug
15
2025 Zabbix 中国峰会
上海
·
8-15 周五
·
报名中
Oct
17
第27届 GOPS 全球运维大会暨研运数智化技术峰会 · 上海站
上海
·
10-17 周五
·
报名中
相关问题
这个问题有点难?
怎么解决elasticsearch集群占用太多虚拟内存(VIRT)的问题?占用了几十个G,有什么可以对它进行限制的相关设置吗?
集群稳定性的一些问题(一定量数据后集群变得迟钝)
elasticsearch functionScoreQuery scriptFunction效率问题
除了设置mapping为not analyzied,还有其他方法让一个string字段不分词吗?
logstash获取时间的问题
elasticsearch 中的store 以及倒排索引的问题
es scroll查询全部数据问题
索引某个shard无法恢复的问题
关于单个机器分片数容量问题
Elasticsearch查询时指定分词器
问题状态
最新活动:
2017-09-08 16:14
浏览:
4224
关注:
6
人
2 个回复
martindu - 搜披露创始人
赞同来自:
夏李俊
赞同来自: