首先將下載解壓后的solr-4.9.0的目錄里面F:\tools\開發工具\Lucene\solr-4.9.0\contrib\analysis-extras\lucene-libs找到lucene-analyzers-smartcn-4.9.0.jar文件,
將它復制到solr的Web應用程序里面D:\apache-tomcat-7.0.54\webapps\solr\WEB-INF\lib,
備注:網上很多文章使用IK中文分詞器(IK_Analyzer2012_u6.jar)但是在solr-4.9.0版本中,我是一直沒有配置成功。所以只能使用solr自帶的中文分詞器了。
在回到solr的應用程序目錄(D:\Demos\Solr\collection1\conf)
修改schema.xml,讓solr能夠支持中文的分詞。

1 <fieldType name="text_smart" class="solr.TextField" positionIncrementGap="100"> 2 <analyzer type="index"> 3 <!-- 此處需要配置主要的分詞類 --> 4 <tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/> 5 <!-- 6 <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /> 7 <filter class="solr.LowerCaseFilterFactory"/> 8 --> 9 <!-- in this example, we will only use synonyms at query time 10 <filter class="solr.SynonymFilterFactory" synonyms="index_synonyms.txt" ignoreCase="true" expand="false"/> 11 --> 12 <filter class="solr.SmartChineseWordTokenFilterFactory"/> 13 </analyzer> 14 <analyzer type="query"> 15 <!-- 此處配置同上 --> 16 <tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/> 17 <!-- 18 <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopwords.txt" enablePositionIncrements="true" /> 19 <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true"/> 20 <filter class="solr.LowerCaseFilterFactory"/> 21 --> 22 <filter class="solr.SmartChineseWordTokenFilterFactory"/> 23 </analyzer> 24 </fieldType>
保存之后,重起tomcat服務器,在地址欄中輸入網址:http://localhost:8080/solr/訪問solr
看到上面這個界面就說明配置中文分詞成功啦。。。再次強調一下,java的配置真的很麻煩!希望這種圖文並茂的教程在網上能夠真心多一點,搞了好幾天才搞定中文分詞的配置。遺憾的是網上說的使用IK中文分詞還是沒有在solr-4.9.0中搞定。