Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,比如我们更希望 “中国人”,“中国”,“我”这样的分词,因此需要安装中文分词插件IK来实现此功能。
elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库,具体安装步骤如下:
1、从github上下载最新的IK分词源码到本地
方式1)可以通过git命令下载,代码如下:
git clone https://github.com/medcl/elasticsearch-analysis-ik
方式2)手动下载
到github网站下载源代码,地址为:https://github.com/medcl/elasticsearch-analysis-ik,右侧下方有一个按钮“Download ZIP",点击下载源代码elasticsearch-analysis-ik-master.zip
2、解压文件elasticsearch-analysis-ik.zip,执行命令:
unzip elasticsearch-analysis-ik.zip
将elasticsearch-analysis-ik-master目录中的 config/ik/ 整个目录拷贝到Elasticsearch安装目录的config目录下,之后再将elasticsearch-analysis-ik-master目录下config文件中elasticsearch.yml文件覆盖Elasticsearch安装目录下的config目录中的elasticsearch.yml文件。
3、进入到解压后的文件夹目录中,因为是源代码需要使用maven命令打包,执行命令如下:
mvn clean package
如果没有安装maven工具的话,需要先安装一下maven工具,具体参考地址:
执行上述命令之后,IK的分词包已经准备就绪。
4、运行Elasticsearch安装路径下的bin目录中的plugin命令安装刚刚编译好的分词包,命令如下:
plugin —install analysis-ik —url file:///#{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-1.4.0.zip