原创

solr集成IKAnalyzer中文分词器

如果想要知道如何安装solr,集成IKAnalyzer中文分词器,批量导入数据库数据,java使用参照以下本博主博文:

安装solr

https://blog.csdn.net/u013294097/article/details/89735654

集成IKAnalyzer中文分词器

https://blog.csdn.net/u013294097/article/details/89735890

solr使用浏览器批量导入数据库中数据

https://blog.csdn.net/u013294097/article/details/89739768

solr在java中的案例

https://blog.csdn.net/u013294097/article/details/89739859


2.把ikanalyzer-2012_u6.jar文件复制到tomcat的webapps/ROOT/WEB-INF/lib下

3.复制IKAnalyzer的配置文件和自定义词典和停用词词典到solr的classpath下

classpath也就是tomcat的webapps/ROOT/WEB-INF/classes如果不存在classes文件夹,可自行创建

4.在solrhome中的collection1中(定义的solr实例(不一定是collection1,也可能是第二个,第三个))的conf目录下的schema.xml配置文件中配置自定义fieldType(该目录在安装solr博文里面有),以使用中文分词器

<!-- IKAnalyzer-->
    <fieldType name="text_ik" class="solr.TextField">
      <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
    </fieldType>

5.在上面schema.xml文件中配置,field,指定field的type属性为text_ik(上一步配置的fieldType指定的name)

<!--IKAnalyzer Field-->
   <field name="title_ik" type="text_ik" indexed="true" stored="true" />
   <field name="content_ik" type="text_ik" indexed="true" stored="false" multiValued="true"/>

6.重启tomcat

测试:


正文到此结束
本文目录