測試Ik分詞器以及增加自己的詞匯


測試

啟動kibana,打開開發工具

ik_smart:最少切分

GET _analyze
{
  "analyzer": "ik_smart", 
  "text": ["中華人民共和國"]
}

 

 

 

 

 ik_max_word:最細粒度划分,窮盡詞庫。

GET _analyze
{
"analyzer": "ik_max_word",
"text": ["中華人民共和國"]
}

    

我們輸入一個人名:比如說宋殿鑫想當Java開發工程師,宋殿鑫是人名,但是被分開了。

 

 

 出現問題:有些詞被拆開了!

這種自己需要的詞,要加到我們的分詞字典中!

Ik分詞器增加自己的配置

來到 elasticsearch-7.6.1\plugins\ik\config 目錄下,打開IKAnalyzer.cfg.xml

 

 我們先創建一個dic文件,也就是字典,其實我們打開其他的dic文件也是一樣的。

 

 編寫后注入到配置文件中。

 

 然后重啟es和kibana,可以看到我們新加的文件

 

再分詞,可以發現,宋殿鑫成為了單獨的字段,沒被細分

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM