前面我們介紹了Centos安裝elasticsearch 6.4.2 教程,elasticsearch內置的分詞器對中文不友好,只會一個字一個字的分,無法形成詞語,別急,已經有大拿把中文分詞器做好了,elasticsearch配套的ik-analyzer,我們一起來看看如何安裝吧。
我們到ik-analyzer中文分詞器開源項目查找與elasticsearch對應的v6.4.2版本(有的是6.0.0版https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.0.0/elasticsearch-analysis-ik-6.0.0.zip) https://github.com/medcl/elasticsearch-analysis-ik/releases
復制ik-analyzer中文分詞器v6.4.2的鏈接地址,進行安裝
/usr/share/elasticsearch/bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.4.2/elasticsearch-analysis-ik-6.4.2.zip
安裝完成,重新啟動一下elasticsearch
sudo systemctl restart elasticsearch
查看一下ik-analyzer的效果
curl -H 'Content-Type: application/json' -XGET 'localhost:9200/_analyze?pretty' -d '{"analyzer":"ik_max_word","text":"ytkah博客園"}'
博客這個詞是不是沒有被分成“博”和“客”兩個字了?說明已經安裝成功
本文參考https://baijunyao.com/article/155