Solr5.5.1 IK中文分詞配置與使用


前言

      用過Lucene.net的都知道,我們自己搭建索引服務器時和解決搜索匹配度的問題都用到過盤古分詞。其中包含一個詞典。 那么既然用到了這種國際化的框架,那么就避免不了中文分詞。尤其是國內特殊行業比較多。比如油田系統從勘探、打井、投產等若干環節都涉及一些專業詞匯。 再像電商,手機、手機配件、筆記本、筆記本配件之類。汽車,品牌、車系、車型等等,這一系列數據背后都涉及各自領域的專業名次,所以中文分詞就最終的目的還是為了解決搜索結果的精確度和匹配度的問題。

 

IK搜索預覽

     我的univeral Core里包含兩條數據,第二條數據的title和author都是中文的。 然后我用關鍵字q=title:平凡來搜索,搜索出來第二條數據。 如果你在你的索引庫里沒搜索出來也不要奇怪,配置下IK中文分詞就可以了。

 

中文語義分析

    在索引庫Core左側菜單Analysis中,你可以輸入復雜的查詢【關鍵字】,選擇對應字段,點擊【Analysis Values】會幫你分析出當前這個復雜的詞組都會分解出那幾個搜索關鍵字或關鍵詞來。如果這里滿足不了你的專業詞匯,那就該從詞典下手了。我這里輸入了:平凡的世界。分析后得出兩個詞:平凡、世界。 也就是我在上一張圖中用平凡搜索的結果。

 

中文分詞的配置和使用

     1、下載對應IK版本。我本地部署的Solr5.5.1。 所以就下載最新版本。

     2、把ik目錄下的文件復制到tomcat/webapps/solr/WEB-INF/lib目錄下。 ik目錄里有一個ext.dic、stopword.dic。 可以打開看一看里面內容。

     3、修改schema.xml。我本地是univeral/conf/managed-schema。 增加中文分詞配置節點,內容如下

     

<fieldType name="text_ik" class="solr.TextField">   
        <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
        <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
</fieldType>

      4、修改對應field的類型。我修改了兩個字段

<field name="title" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
<field name="author" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />  

 

     參考教程:http://www.cnblogs.com/zhangweizhong/p/5593909.html 

 

備注

    如果之前你已經創建了索引,那么配置IK中文分詞后先修改schema.xml中的field對應類型。 清空索引后重新創建索引。 OK。大功搞成。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM