ELK---- Elasticsearch 使用ik中文分詞器


0、默認分詞器。

默認分詞器,查詢的時候會把中文一個漢字當作一個關鍵字拆分,這樣是不符合我們的需求的,所以需要安裝分詞器。

1、下載分詞器。

當前有多種分詞器可下載,據說比較好用的是IK分詞器。

注意,下載分詞器的時候,版本必須要與Elasticsearch安裝的版本一致,否則會出現不可描述的錯誤。

下載地址: https://github.com/medcl/elasticsearch-analysis-ik/releases

注意: es-ik分詞插件版本一定要和es安裝的版本對應

之前自帶的分詞器

查詢地址:http://192.168.5.131:9200/_analyze

{
  "analyzer": "standard",
  "text": "中華人民共和國中華人民共和國中華人民shiwom是"
}

 

 

 

 

 

2、安裝分詞器。

下載好之后的分詞器zip壓縮包,上傳到服務器中 Elasticsearch的安裝目錄的plugins目錄下。

用unzip 進行解壓。

linux解壓zip文件,命令:unzip 如果沒有該命令,可先安裝,命令為:

yum -y install unzip

安裝好后,就解壓

unzip ik.zip

就OK了,然后kill -9 原來的進程 ,再啟動,就可以了。在啟動的日志中,我們可以看到,

 

3、測試。


查詢地址:http://192.168.5.131:9200/_analyze

將分詞器類型更換為:ik_smart

{
  "analyzer": "ik_smart",
  "text": "發布之后,誰操作下把2521拿出來"
}

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM