一,IKAnalyzer簡介
IKAnalyzer是一個開源的,基於java語言開發的輕量級的中文分詞工具包。說白了就是把一句很長的話分成一個一個的詞或字以便我們搜索。
二、相關特性:
三、如果之前沒添加過Core或者第一次進入此頁面要首先添加Core,如下圖所示

點擊添加后出出錯說solrcobfig.xml不存在,打開solrhome后發現里面多了一個collection1的文件夾,這時打開solr安裝包下solr(用來當solrhome那個文件夾或者直接去你復制來的本地solrhome里的configsets下就能找到)找到conf文件夾將其整個整個復制到collection1里面。
from:

to:

然后來到瀏覽器點擊Add Core按鈕就可以創建成功了。
四、先來看看不配置中文分詞時的效果,它是一個字一個字的分,這樣是沒有意義的簡單說就是分了個寂寞。
五、去maven直接下載相關的ik-analyzer-8.3.0.jar包。
1.網上有很多方法說直接去給個鏈接去下載,下載后里面有一個jar包一個配置文件xml,兩個分詞相關dic文件,現在solr已經更新到了版本8,版本9已發布在即,這種方式早已失去了作用。
2.maven下載地址:https://mvnrepository.com/artifact/com.github.magese/ik-analyzer/8.3.0

六、添加擴展包(不做此步驟會報ClassNotFoundException)
繼續去solr安裝包找,在下找到lucene-analyzers-smartcn-8.9.0.jar復制到tomcat里對應的WEB-INF>lib(上圖)下。
七、配置中文分詞器,每個ik-analyzer-xxx.jar對應的配置方式不一樣,我上面從maven下載的是ik-analyzer-8.3.0.jar版本,這里提供8.3.0版本的配置方式,如果不對應啟動tomcat會報異常ClassNotFoundException。
在solrhome>collection1>conf里面找到managed-schema打開配置(之前的舊版本的solr是在schema.xml里面進行配置,新版本8.9.0你會發現並沒有這個文件)
在文件managed-schema里最后面(</schema>標簽里面)添加如下代碼:
<!-- ik分詞器 -->
<!-- ChineseAnalyzer 自帶的中文分詞器 -->
<fieldType name="text_ik" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
</analyzer>
<analyzer type="query">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
</analyzer>
</fieldType>
八、啟動tomcat可以看到分詞成功了,不再是之前一個字一個字的分了,出現了詞匯。

solr8.9.0的安裝部署可查看:https://www.cnblogs.com/smiles365/articles/15269607.html
