IK分词器
下载地址:https://github.com/medcl/elasticsearch-analysis-ik
也可以在这个地址选择:https://github.com/medcl/elasticsearch-analysis-ik/releases
这个下载下来了可以直接使用, 所以推荐下载这个
选择elasticsearch对应版本的分词器进行下载
进入到对应页面下载
找到下载好的文件,右键,解压到当前文件夹
进入文件夹,cmd进入dos窗口,使用maven打包
输入命令,打包,前提是安装好了maven
命令:
打包好了过后,当前目录多了一个target文件夹,点击进入
点击进入releases文件夹
右键,解压到当前文件夹
进入解压后的文件夹,复制所有文件
找到elasticsearch安装目录,在plugins文件夹下面新建ik(任意取名,方便记忆)文件夹,把刚才复制的文件粘贴到ik文件夹下面
拼音分词器
下载地址:https://github.com/medcl/elasticsearch-analysis-pinyin
也可以在这个地址选择:https://github.com/medcl/elasticsearch-analysis-pinyin/releases
下载,安装过程和ik分词器一模一样,参考上面步骤
最终结果
测试分词效果
elasticsearch自带分词器效果
分词效果如下:
使用ik_max_word分词
ik_max_word :会将文本做最细粒度的拆分;尽可能多的拆分出词语
效果如下:
使用ik_smart分词
ik_smart:会做最粗粒度的拆分;已被分出的词语将不会再次被其它词语占有
分词效果如下:
使用pinyin分词
效果如下:
IK+pinyin分词配置
创建索引和类型
索引一个文档
中文查询
结果如下:
拼音查询
查询结果:
注意:使用pinyin分词以后,原始的字段搜索要加上.pinyin后缀,搜索原始字段没有返回结果