測試
啟動kibana,打開開發工具
ik_smart:最少切分
GET _analyze { "analyzer": "ik_smart", "text": ["中華人民共和國"] }

ik_max_word:最細粒度划分,窮盡詞庫。
GET _analyze { "analyzer": "ik_max_word", "text": ["中華人民共和國"] }

我們輸入一個人名:比如說宋殿鑫想當Java開發工程師,宋殿鑫是人名,但是被分開了。

出現問題:有些詞被拆開了!
這種自己需要的詞,要加到我們的分詞字典中!
Ik分詞器增加自己的配置
來到 elasticsearch-7.6.1\plugins\ik\config 目錄下,打開IKAnalyzer.cfg.xml

我們先創建一個dic文件,也就是字典,其實我們打開其他的dic文件也是一樣的。

編寫后注入到配置文件中。

然后重啟es和kibana,可以看到我們新加的文件

再分詞,可以發現,宋殿鑫成為了單獨的字段,沒被細分

