博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Elasticsearch安装中文分词插件IK
阅读量:5363 次
发布时间:2019-06-15

本文共 1054 字,大约阅读时间需要 3 分钟。

        Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,比如我们更希望 “中国人”,“中国”,“我”这样的分词,因此需要安装中文分词插件IK来实现此功能。

 

elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库,具体安装步骤如下:

1、从github上下载最新的IK分词源码到本地

方式1)可以通过git命令下载,代码如下:

git clone https://github.com/medcl/elasticsearch-analysis-ik

方式2)手动下载

到github网站下载源代码,地址为:https://github.com/medcl/elasticsearch-analysis-ik,右侧下方有一个按钮“Download ZIP",点击下载源代码elasticsearch-analysis-ik-master.zip

 

2、解压文件elasticsearch-analysis-ik.zip,执行命令:

unzip elasticsearch-analysis-ik.zip

将elasticsearch-analysis-ik-master目录中的 config/ik/ 整个目录拷贝到Elasticsearch安装目录的config目录下,之后再将elasticsearch-analysis-ik-master目录下config文件中elasticsearch.yml文件覆盖Elasticsearch安装目录下的config目录中的elasticsearch.yml文件。

 

3、进入到解压后的文件夹目录中,因为是源代码需要使用maven命令打包,执行命令如下:

mvn clean package

如果没有安装maven工具的话,需要先安装一下maven工具,具体参考地址:  

 

执行上述命令之后,IK的分词包已经准备就绪。

 

4、运行Elasticsearch安装路径下的bin目录中的plugin命令安装刚刚编译好的分词包,命令如下:

plugin —install analysis-ik —url file:///#{project_path}/elasticsearch-analysis-ik/target/releases/elasticsearch-analysis-ik-1.4.0.zip

转载于:https://www.cnblogs.com/MrYoodb/p/4687522.html

你可能感兴趣的文章
HBase学习之路 (九)HBase phoenix的使用
查看>>
LeetCode() Remove Duplicates from Sorted Array II
查看>>
【svn】idea svn 文件上会出现一个破书
查看>>
cocos2d-x 3.0 场景切换特效汇总(转)
查看>>
The SortedMap Interface
查看>>
SniperOJ-leak-x86-64
查看>>
bzoj 4260: Codechef REBXOR (01 Trie)
查看>>
学好python
查看>>
css-IE中的border-radius和box-shadow
查看>>
利用bootstrap和webform的异步CRUD及分页
查看>>
HDUOJ 1879继续畅通工程(并查集)
查看>>
OC12_自动释放池
查看>>
Saiku资源帖
查看>>
解决手机页面中点击文本框,网页放大问题
查看>>
2-5
查看>>
牛客多校3 A-PACM Team(状压降维+路径背包)
查看>>
HDU - 4284 Travel(floyd+状压dp)
查看>>
1027 制作表格
查看>>
Android之Socket通信、List加载更多、Spinner下拉列表
查看>>
面向对象的介绍与特性
查看>>