一.
1. 安装tomcat6.0
2. 下载apache-solr-3.1.0.zip
http://labs.xiaonei.com/apache-mirror/lucene/solr/3.1.0/
3. 解压后,打开apache-solr-3.1.0\dist目录,找到apache-solr-1.3.0.war,改名为solr.war(为了方便而已),然后把其考到tomcat的webapps目录下。
4. 运行tomcat后再webapps下会自动生成solr文件夹。
5. 在tomcat下的\conf\Catalina\localhost中加入solr.xml,内容如下:
<?xml version="1.0" encoding="UTF-8"?>
<Context reloadable="true" docBase="D:/solr/solr.war" >
<Environment name="solr/home" type="java.lang.String" value="D:/solr/solr" override="true" />
</Context>
其中docBase对应solr.war的路径,可以改动
Value对应solr的home,可以改动
6. 把apache-solr-1.3.0\example\solr下的文件夹(包括bin,conf,data)考到solr的home目录下。
7. 重启tomcat,进行测试http://localhost:8080/solr/admin/analysis.jsp
二. solr集成paoding分词
1.设置环境变量PAODING_DIC_HOME;“变量值”为词库目录(dic),如 d:/solr/solr/dic
2. 修改paoding-dic-home.properties文件,添加宽paoding.dic.home指向词典目录,运行build.bat, 重新编译生成jar包
paoding.dic.home=D:\solr\dic
3.把paoding-analysis.jar放入到solr.war.lib目录下
4. 修改solr配置文件, solr.home/conf/schema.xml 修改或加 text fieldType 元素,如:
<fieldType name="text" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer" />
<analyzer type="index">
<tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory"
isMaxWordLength="false" />
<filter class="solr.StopFilterFactory" ignoreCase="true"
words="stopwords.txt" />
<filter class="solr.WordDelimiterFilterFactory"
generateWordParts="1" generateNumberParts="1" catenateWords="1"
catenateNumbers="1" catenateAll="0" splitOnCaseChange="1" />
<filter class="solr.LowerCaseFilterFactory" />
<filter class="solr.EnglishPorterFilterFactory" protected="protwords.txt" />
<filter class="solr.RemoveDuplicatesTokenFilterFactory" />
</analyzer>
<analyzer type="query">
<tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory"
isMaxWordLength="true" />
<filter class="solr.StopFilterFactory" ignoreCase="true"
words="stopwords.txt" />
<filter class="solr.WordDelimiterFilterFactory"
generateWordParts="1" generateNumberParts="1" catenateWords="1"
catenateNumbers="1" catenateAll="0" splitOnCaseChange="1" />
<filter class="solr.LowerCaseFilterFactory" />
<filter class="solr.EnglishPorterFilterFactory" protected="protwords.txt" />
<filter class="solr.RemoveDuplicatesTokenFilterFactory" />
</analyzer>
</fieldType>
5.启动 tomcat 打开,http://localhost:8080/solr/admin/analysis.jsp,测试 paoding, 看是否正常工作
三. solr集成Ikanalyzer分词
...
本文转至
http://blog.chenlb.com/2009/06/use-paoding-chinese-segment-in-solr.html
分享到:
相关推荐
Tomcat+Solr+MMseg4j的配置,文档中附带资源下载地址
Linux下配置完成的tomcat8+solr7.4+IK分词器,jdk版本需要使用1.8版本,端口设置的8983,如果有错误,请告知
tomcat8.5+solr7+IKAnalyzer5, 已经整合IKAnalyzer中文分词, 直接使用即可
压缩包内含有solr+ik如何配置的详细介绍以及solr+ik的包,省去了自己去找地址下载的麻烦,经测试使用完全可以在电商电商项目中实现全文检索
使用Solr3.2 + Paoding中文分词的搜索引擎 使用Demo 测试放在C盘根目录
solr+ tomcat 项目整合!
tomcat8.5+solr7+IKAnalyzer5+ikpinyin直装版, 直接启动tomcat访问地址即可, 相关分词器已经配好, 详情见readme
压缩包内含有solr+ik如何配置的详细介绍以及solr+ik的安装包,省去了自己去找地址下载的麻烦,经测试使用完全可以在电商电商项目中实现全文检索
简单介绍整合tomcat+solr,包含文件拷贝,索引文件配置,系统文件配置;
solr6.0+mysql+IK分词集成
solr+tomcat完成搜索功能,solr+tomcat完成搜索功能,solr+tomcat完成搜索功能
solr 5.0.0 + tomcat7 安装 + IKAnalyzer中文分词操作, 步骤详细可用,包含 IKAnalyzer的jar
使用Solr + Paoding中文分词的搜索引擎 使用Demo 测试放在C盘根目录
solr全文检索,全文检索,庖丁,分词,中文分词,庖丁jar,庖丁分词
NULL 博文链接:https://lpyyn.iteye.com/blog/2074539
这个主要是整合了solr的spring+hibernate+webservice的一个框架代码,给大家讲解了solr的批次汇入和增删改查方法的实现方式,给初学者一些代码参考,希望能够帮助大家
处理过的solr配置,只需要资源拷贝到tomcat指定位置就行了
tomcat+solr3.6+mmseg4j 整合+使用例子
tomcat-8.0.28+solr5.3.1安装教程.doc
linux+tomcat+mysql+solr调优,整理的比较粗糙,给大家分享参考下