如果想要知道如何安装solr,集成IKAnalyzer中文分词器,批量导入数据库数据,java使用参照以下本博主博文:


 

2.把ikanalyzer-2012_u6.jar文件复制到tomcat的webapps/ROOT/WEB-INF/lib下

solr集成IKAnalyzer中文分词器_tomcat

solr集成IKAnalyzer中文分词器_solr_02

3.复制IKAnalyzer的配置文件和自定义词典和停用词词典到solr的classpath下

classpath也就是tomcat的webapps/ROOT/WEB-INF/classes如果不存在classes文件夹,可自行创建

solr集成IKAnalyzer中文分词器_solr_03

solr集成IKAnalyzer中文分词器_tomcat_04

4.在solrhome中的collection1中(定义的solr实例(不一定是collection1,也可能是第二个,第三个))的conf目录下的schema.xml配置文件中配置自定义fieldType(该目录在安装solr博文里面有),以使用中文分词器

solr集成IKAnalyzer中文分词器_中文分词器_05

<!-- IKAnalyzer-->
<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>

solr集成IKAnalyzer中文分词器_ik分词_06

5.在上面schema.xml文件中配置,field,指定field的type属性为text_ik(上一步配置的fieldType指定的name)

<!--IKAnalyzer Field-->
<field name="title_ik" type="text_ik" indexed="true" stored="true" />
<field name="content_ik" type="text_ik" indexed="true" stored="false" multiValued="true"/>

6.重启tomcat

测试:

solr集成IKAnalyzer中文分词器_中文分词器_07

solr集成IKAnalyzer中文分词器_IKAnalyzer_08