elasticsearch中文分詞器ik-analyzer安裝


  前面我們介紹了Centos安裝elasticsearch 6.4.2 教程,elasticsearch內置的分詞器對中文不友好,只會一個字一個字的分,無法形成詞語,別急,已經有大拿把中文分詞器做好了,elasticsearch配套的ik-analyzer,我們一起來看看如何安裝吧。

  我們到ik-analyzer中文分詞器開源項目查找與elasticsearch對應的v6.4.2版本(有的是6.0.0版https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.0.0/elasticsearch-analysis-ik-6.0.0.zip) https://github.com/medcl/elasticsearch-analysis-ik/releases

ik-analyzer中文分詞器v6.4.2

  復制ik-analyzer中文分詞器v6.4.2的鏈接地址,進行安裝

/usr/share/elasticsearch/bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.4.2/elasticsearch-analysis-ik-6.4.2.zip

安裝ik-analyzer中文分詞器v6.4.2

  安裝完成,重新啟動一下elasticsearch

sudo systemctl restart elasticsearch

  查看一下ik-analyzer的效果

curl -H 'Content-Type: application/json'  -XGET 'localhost:9200/_analyze?pretty' -d '{"analyzer":"ik_max_word","text":"ytkah博客園"}'

驗證ik-analyzer的效果

  博客這個詞是不是沒有被分成“博”和“客”兩個字了?說明已經安裝成功

  本文參考https://baijunyao.com/article/155


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM