es中中文分詞器的使用


  一直到今天,才打算寫這篇文章。我使用的es服務器,是使用docker進行安裝的,不像傳統的那種安裝,分詞器要添加到docker里,一直有些頭疼。

  es整體都整理好了,進行補充沒有實現的一些es知識點。

1.參考地址

  github:https://github.com/medcl/elasticsearch-analysis-ik/

   碼雲:https://gitee.com/sky_flying/elasticsearch-analysis-ik?_from=gitee_search

 

2.首先看自己的es版本

  

 

3.進入docker

  

 

 

 4.在線安裝

  版本和es一致

  ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.2.0/elasticsearch-analysis-ik-7.2.0.zip

  但是,在線就是有些慢,這里有一個可以先下載下來,然后使用的做法:https://blog.csdn.net/u012211603/article/details/90757253

  本文終止在線安裝,從第5開始線下安裝。

 

5.先進行下載

  https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.2.0/elasticsearch-analysis-ik-7.2.0.zip,輸入谷歌瀏覽器中

  自動進行下載

  下載效果:

  

 

6.從本地上傳到服務器

  

 

7.新建文件夾

  

 

 

8.退出docker

  exit

 

9.將ik拷貝進來

  docker cp /opt/data/elasticsearch-analysis-ik-7.2.0 es2:/usr/share/elasticsearch/plugins/ik

  

 

   效果:

  

 

 

10.解壓

  如果不存在unzip,則進入容器中執行yum install unzip,就存在了

  

 

 

11.刪除zip包

  

 

 

12.退出重新啟動

  

二:驗證

1.執行

POST /_analyze
{
  "analyzer": "ik_smart",
  "text": "我是一個程序員"
}

  效果:

{
  "tokens" : [
    {
      "token" : "我",
      "start_offset" : 0,
      "end_offset" : 1,
      "type" : "CN_CHAR",
      "position" : 0
    },
    {
      "token" : "是",
      "start_offset" : 1,
      "end_offset" : 2,
      "type" : "CN_CHAR",
      "position" : 1
    },
    {
      "token" : "一個",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 2
    },
    {
      "token" : "程序員",
      "start_offset" : 4,
      "end_offset" : 7,
      "type" : "CN_WORD",
      "position" : 3
    }
  ]
}

  

 

  

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM