你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
发现
分享
文章
活动
登录
愚者求师之过,智者从师之长。
跪求大神们帮忙看看这种情况下ik分词生效了吗?万分感谢
Elasticsearch
| 作者
xiaoxin181
| 发布于2020年03月25日 | 阅读数:
1530
分享到:
QQ空间
新浪微博
微信
QQ好友
印象笔记
有道云笔记
我先设置好mapping加入分词上传了一个json文件(是一些文本,两个索引是textid和text),最后mappings如图,这样json文件用上ik分词了吗,,,但感觉不对,
比如我搜索“云南省重点支持哪些企业尽快恢复生产?”最后搜出score最高的结果是一个海南省为主体的文本,如果分词的话应该直接用云南省搜吧,,,,,这种情况应该怎么办》。。求解答,谢谢!!!
没有找到相关结果
已邀请:
与内容相关的链接
提交
3 个回复
xiaoxin181
赞同来自:
顶顶...
doom
赞同来自:
"content":{
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart",
"type":"text"
}
这种分词试一下,搜素用 ik_smart,最大粒度的分词,也就是“云南省重点支持哪些企业尽快恢复生产?”
GET _analyze
{
"text": ["云南省重点支持哪些企业尽快恢复生产?"],
"analyzer": "ik_smart"
}
{
"tokens": [
{
"token": "云南省",
"start_offset": 0,
"end_offset": 3,
"type": "CN_WORD",
"position": 0
},
{
"token": "重点",
"start_offset": 3,
"end_offset": 5,
"type": "CN_WORD",
"position": 1
},
{
"token": "支持",
"start_offset": 5,
"end_offset": 7,
"type": "CN_WORD",
"position": 2
},
{
"token": "哪些",
"start_offset": 7,
"end_offset": 9,
"type": "CN_WORD",
"position": 3
},
{
"token": "企业",
"start_offset": 9,
"end_offset": 11,
"type": "CN_WORD",
"position": 4
},
{
"token": "尽快",
"start_offset": 11,
"end_offset": 13,
"type": "CN_WORD",
"position": 5
},
{
"token": "恢复生产",
"start_offset": 13,
"end_offset": 17,
"type": "CN_WORD",
"position": 6
}
]
}
.要是用ik_max_word,索引,会有很多组合,分的很细,不适合搜索的。
cc112_112
赞同来自:
路过
要回复问题请先
登录
或
注册
发起人
xiaoxin181
活动推荐
Aug
15
2025 Zabbix 中国峰会
上海
·
8-15 周五
·
报名中
Oct
17
第27届 GOPS 全球运维大会暨研运数智化技术峰会 · 上海站
上海
·
10-17 周五
·
报名中
相关问题
除了设置mapping为not analyzied,还有其他方法让一个string字段不分词吗?
Elasticsearch查询时指定分词器
ik分词情况下“中国人民银行”为例,无法命中结果?
添加了ik自定义分词,之前入库的数据不能搜索出来,这个有什么好的解决方法?
elasticSearch5.X javaAPI rangeQuery分区间查询,最终用了一种最low的方法凑合?不知大神们有没有好解决方案?
Elasticsearch 分词搜索 - 精确查找
Elasticsearch中文分词器问题
ES配置IK分词器失败
ES使用IK分词器
实际项目的ES性能问题,大家看看该场景是否适合用ES,如何提高?
各位大神,有没有谁知道实现这种效果的思路:搜索bed关键词,最后结果显示bed在前面显示,dog bed放到后面,而不是dog bed 会放到前面来
问题状态
最新活动:
2020-03-28 22:54
浏览:
1530
关注:
3
人
3 个回复
xiaoxin181
赞同来自:
doom
赞同来自:
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart",
"type":"text"
}
这种分词试一下,搜素用 ik_smart,最大粒度的分词,也就是“云南省重点支持哪些企业尽快恢复生产?”
GET _analyze
{
"text": ["云南省重点支持哪些企业尽快恢复生产?"],
"analyzer": "ik_smart"
}
{
"tokens": [
{
"token": "云南省",
"start_offset": 0,
"end_offset": 3,
"type": "CN_WORD",
"position": 0
},
{
"token": "重点",
"start_offset": 3,
"end_offset": 5,
"type": "CN_WORD",
"position": 1
},
{
"token": "支持",
"start_offset": 5,
"end_offset": 7,
"type": "CN_WORD",
"position": 2
},
{
"token": "哪些",
"start_offset": 7,
"end_offset": 9,
"type": "CN_WORD",
"position": 3
},
{
"token": "企业",
"start_offset": 9,
"end_offset": 11,
"type": "CN_WORD",
"position": 4
},
{
"token": "尽快",
"start_offset": 11,
"end_offset": 13,
"type": "CN_WORD",
"position": 5
},
{
"token": "恢复生产",
"start_offset": 13,
"end_offset": 17,
"type": "CN_WORD",
"position": 6
}
]
}
.要是用ik_max_word,索引,会有很多组合,分的很细,不适合搜索的。
cc112_112
赞同来自: