1ElasticSearch分词器

分词器(Analyzer) :将一段文本, 按照定逻辑,分析成多个词语的一种工具如:华为手机---> 华为、手、手机

  1. elasticSearch内置分词器
  2. standard Analyzer-默认分词器,按词切分,小写处理
  3. simple Analyzer -按照非字母切分(符号被过滤),小写处理
  4. stop Analyzer-小写处理,停用词过滤(the,a,is)
  5. whitespace Analyzer-按照空格切分,不转小写
  6. keyword Analyzer -不分词,直接将输入当作输出
  7. patter Analyzer-正则表达式,默认\W+ (非字符分割
  8. language -提供了30多种常见语言的分词器

ElasticSearch内置分词器对中文很不友好,处理方式为: 一个字一个词。

例如:

创建一组分词:GET IP+_analyze +json数据
http://111.230.182.125:9200/_analyze  json格式数据
{
	"analyzer": "standard",
	"text": "我爱北京天安门"
}

查看es所支持的分词器 es使用ik分词器查询_ElasticSearch

 

2.Ik分词器

2.1简介

  1. IKAnalyzer是一个 开源的,基于java语言开发的轻量级的中文分词工具包
  2. 是一个基于Maven构建的项目
  3. 具有60万字/秒的高速处理能力
  4. 支持用户词典扩展定义
  5. 下载地址:https://github.com/medcl/elasticsearch-analysis-ik/releases

2.2Maven安装

需要借助maven打包ik。所以需要在linux中下载maven

  1. 先设置JAVA_HOME (这里我没改。用的还是原来安装Java jdk的配置)
vim /etc/profile
#在profile文件末尾添加
#java envir onment
export JAVA_HOME=/opt/es/elasticsearch-7.13.1/jdk
export PATH=$PATH:${JAVA_ HOME}/bin
#保存退出后,重新加载profile
source /etc/profile
  1. 下载maven:
wget http://mirrors.hust.edu.cn/apache/maven/maven-3/3.5.4/binaries/apache-maven-3.5.4-bin.tar.gz
  1. 解压之后设置一个软连接(类型win上快捷键):
ln -s apache-maven-3.5.4 maven =>(ln -s 原始文件名称  新访问名称)
  1. 设置path:
设置:  vim  /etc/profile 
设置完毕之后刷新:source /etc/profile
然后查看maven是否生效:mvn -v
#/etc/profile中内容
export M2_HOME=/opt/es/maven
export PATH=${M2_HOME}/bin:${PATH}
  1. 注意如果/etc/profile的path有多个变量 用:区分

2.3Ik安装

  1. 先去下载对应版本(和ElasticSerch版本一致):
  1. https://github.com/medcl/elasticsearch-analysis-ik/releases
  1. 移动解压到linux服务器上:tar -zxvf elasticsearch-analysis-ik-7.13.1.tar.gz
  2. 进入到ik文件中,然后进行打包 mvn package(打包完之后会有一个target文件) (打包之前先去pom.xml中查看打包的版本是否和elasticsearch版本一致)
  3. 切换到elasticSearch下的plugins目录下:
  1. cd /opt/es/elasticsearch-7.13.1/plugins/
  1. 新建一个目录放刚刚ik打包的文件。并且进入
  1. mkdir analysis-ik
  1. 将刚刚打包文件拷贝到这里、
cp -r /opt/es/elasticsearch-analysis-ik-7.13.1/target/releases/elasticsearch-analysis-ik-7.13.1.zip /opt/es/elasticsearch-7.13.1/plugins/analysis-ik
  1. 然后解压 unzip elasticsearch-analysis-ik-7.13.1.zip (由于是zip压缩包,用unzip解压)
  2. 拷贝词典:将elasticsearch-analysis-ik-7.13.1目录下的config目录中的所有文件拷贝到elasticsearch的config目录
cp /opt/es/elasticsearch-analysis-ik-7.13.1/config/* /opt/es/elasticsearch-7.13.1/config
  1. 重启 elasticsearch的bin文件夹下 ./elasticsearch

2.4ik分词器的使用

  • IK分词器有两种分词模式: ik_max_word和ik_smart模式。
  • ik_max_word:会将文本做最细粒度的拆分,比如会将”乒乓球明年总冠军”拆分为“乒乓球、乒乓、球、明年、总冠军、冠军。
  • ik_smart:会将文本做最粗粒度的拆分:比如会将”乒乓球明年总冠军”拆分为“乒乓球、明年、总冠军、”

想看简单的可以看这个apipost文档

https://docs.apipost.cn/preview/c06859fcd7689b29/da6fe8c16d8b895e

查看es所支持的分词器 es使用ik分词器查询_查看es所支持的分词器_02