0、默認分詞器。
默認分詞器,查詢的時候會把中文一個漢字當作一個關鍵字拆分,這樣是不符合我們的需求的,所以需要安裝分詞器。
1、下載分詞器。
當前有多種分詞器可下載,據說比較好用的是IK分詞器。
注意,下載分詞器的時候,版本必須要與Elasticsearch安裝的版本一致,否則會出現不可描述的錯誤。
下載地址: https://github.com/medcl/elasticsearch-analysis-ik/releases
注意: es-ik分詞插件版本一定要和es安裝的版本對應
之前自帶的分詞器
查詢地址:http://192.168.5.131:9200/_analyze
{ "analyzer": "standard", "text": "中華人民共和國中華人民共和國中華人民shiwom是" }
2、安裝分詞器。
下載好之后的分詞器zip壓縮包,上傳到服務器中 Elasticsearch的安裝目錄的plugins目錄下。
用unzip 進行解壓。
linux解壓zip文件,命令:unzip 如果沒有該命令,可先安裝,命令為:
yum -y install unzip
安裝好后,就解壓
unzip ik.zip
就OK了,然后kill -9 原來的進程 ,再啟動,就可以了。在啟動的日志中,我們可以看到,
3、測試。
查詢地址:http://192.168.5.131:9200/_analyze
將分詞器類型更換為:ik_smart
{ "analyzer": "ik_smart", "text": "發布之后,誰操作下把2521拿出來" }