首页 > 其他 > 详细

ES:ik 分词器

时间:2021-01-29 15:15:42      阅读:27      评论:0      收藏:0      [点我收藏+]

ik 分词器:可以将中文按照规则可以拆成多种粒度的词语。

IK提供了两个分词算法:ik_smart (粗粒度切分) 和 ik_max_word(细粒度切分)。

下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases(请下载对应es版本)

安装:在usr/local/es/plugins 目录下新建文件夹ik ,将下载好的包解压到ik文件夹中,重启es即可。(注意,删除掉压缩包)

ik_smart算法:

技术分享图片

ik_max_word算法:

技术分享图片

如何增加自己的配置?

cd /usr/local/es/plugins/ik/config
vi IKAnalyzer.cfg.xml

在配置文件里加上自己要定义的分词文档

技术分享图片

然后在config里面新增my.dic

技术分享图片

保存退出

重启es

再来测试

技术分享图片

 

ES:ik 分词器

原文:https://www.cnblogs.com/wish-yang/p/14343871.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!