简介: 它是一种开放源码的、基于 Lucene Java 的搜索服务器,易于加入到 Web 应用程序中。Solr 提供了层面搜索、命中醒目显示并且支持多种输出格式(包括 XML/XSLT 和 JSON 格式)。它易于安装和配置,而且附带了一个基于 HTTP 的管理界面。您可以坚持使用 Solr 的表现优异的基本搜索功能,也可以对它进行扩展从而满足企业的需要。So
原创
2015-09-23 19:27:11
1054阅读
学习
转载
2014-04-22 10:37:00
115阅读
2评论
# Solr中IK分词与HanLP词典的结合使用
在信息检索和自然语言处理领域,分词技术扮演着至关重要的角色。特别是在中文处理上,由于汉字的复杂性,分词显得尤为重要。本文将介绍如何将Solr中的IK分词与HanLP词典结合使用,以提升搜索的准确性和效率。
## 什么是Solr和IK分词
[Apache Solr]( 是一个开源搜索平台,是构建于Apache Lucene之上的。它提供了强大的
一、分词的概念分词:就是把我们要查询的数据拆分成一个个关键字,我们在搜索时,ElasticSearch会把数据进行分词,然后做匹配。默认的中文分词器会把每一个中文拆分,比如“迪丽热巴”,会拆分成“迪”,“丽”,“热”,“巴”,显然,这并不符合我们的要求,所以ik分词器(中文分词器)能解决这个问题。二、IK分词器的分词算法ik分词器存在两种分词算法:ik_smart:称为智能分词,网上还有别的称呼:
转载
2023-07-13 15:14:39
22阅读
最近,很多朋友问我solr 中文分词配置的问题,都不知道怎么配置,怎么使用,原以为很简单,没想到这么多朋友都有问题,所以今天就总结总结中文分词的配置吧。 有的时候,用户搜索的关键字,可能是一句话,不是很规范。所以在 Solr 中查询出的时候,就需要将用户输入的关键字进行分词。 目前有很多优秀的中文分
原创
2021-08-11 14:25:30
873阅读
最近,很多朋友问我solr 中文分词配置的问题,都不知道怎么配置,怎么使用,原以为很简单,没想到这么多朋友都有问题,所以今天就总结总结中文分词的配置吧。
有的时候,用户搜索的关键字,可能是一句话,不是很规范。所以在 Solr 中查询出的时候,就需要将用户输入的关键字进行分词。
目前有很多优秀的中文分词组件。本篇只以 IKAnalyzer 分词为例,讲解如何在 solr 中及集成
转载
2018-07-19 14:12:00
365阅读
2评论
最近,很多朋友问我solr 中文分词配置的问题,都不知道怎么配置,怎么使用,原以为很简单,没想到这么多朋友都有问题,所以今天就总结总结中文分词的配置吧。 有的时候,用户搜索的关键字,可能是一句话,不是很规范。所以在 Solr 中查询出的时候,就需要将用户输入的关键字进行分词。 目前有很多优秀的中文分词组件。本篇只以 IKAnalyzer 分词为例,讲解如何在 solr 中及集成中
原创
2021-07-13 11:42:42
53阅读
本文以Solr 4.10.4为例, 介绍了使用IK中文分词器的方法, 以及配置schema.xml文件的简单思路.
原创
2021-05-20 09:08:58
421阅读
1、创建 bridge 网络并指定 IP 区间#创建自定义网络
docker network create --driver bridge --subnet 172.0.0.0/16 srs_network
#查看已存在网络
docker network ls2、创建数据目录# 创建数据目录
mkdir -p /home/docker/srs43、安装SRS3.1、 创建配置文件# 安装并启动
转载
2023-08-18 13:47:59
135阅读
下载IK分词的包:IKAnalyzer2012FF_hf1.zip然后进行解压1、/usr/local/services/solr/solr-4/usr/local/services/solr/solr-4.10.3/example/solr/collection1/conf中添加 <!-- IK --> <fieldType name="text_ik
原创
2017-09-27 08:27:51
1519阅读
、,结合词典分词和文法分析算法的中文分词组件。从 3.0 版本开始,IK ...
原创
2022-07-06 18:59:52
134阅读
介绍window环境下solr6.3配置ik分词window环境下solr6.3配置ik分词一、环境1、solr6.3.02、JDK1
原创
2022-10-17 08:37:31
87阅读
1 solr索引和搜索过程: 2 分词器: 在创建索引时会用到分词器,在使用字符串搜索时也会用到分词器,这两个地方要使用同一个 ,所以对于不同的语言(规则),要用不同的分词...
原创
2023-04-20 18:49:19
232阅读
步骤: 第一步:把IKAnalyzer2012FF_u1.jar添加到solr/WEB-INF/lib目录下。 第二步:复制IKAnalyzer的配置文件和自定义词典和停用词词典到solr的classpath下。 第三步:在schema.xml中添加一个自定义的fieldType,使用中文分析器。
原创
2021-07-29 09:13:51
189阅读
一、现状说一下1、Solr已经可以连接MySQL2、MySQL全量与增量也了解了,增量需要手动触发,job还没做(跟Java相关的后续说)3、没有中文分词,搜索就不是很完美二、准备工作1、计划用开源的IK分词库,直达Github2、上篇文章是这个,可以先了解下: 全量导入与增量导入三、开整1、下载jar包,失效的话,请到Github上去拿最新的jar包2、jar包放到solr目录solr...
原创
2022-11-25 11:10:08
228阅读
solr6.0中进行中文分词器IKAnalyzer的配置和solr低版本中最大不同点在于IKAnalyzer中jar包的引用。一般的IK分词jar包都是不能用的,因为IK分词中传统的jar不支持solr6.0这个高版本的,所以就会发送运行错误的界面。下面就来介绍一下solr6.0中中文分词器IKAnalyzer的配置。想学习分布式、微服务、JVM、多线程、架构、java、python...
原创
2021-07-09 17:19:11
554阅读
项目在此基础上:solr7.2.1+tomcat8.5.37+jdk8安装配置 github:https://github.com/magese/ik-analyzer-solr 历史版本下载地址:https://search.maven.org/search?q=g:com.github.mage
转载
2020-04-20 12:08:00
143阅读
关于solr7.4搭建与配置可以参考 solr7.4 安装配置篇 在这里我们探讨一下分词的配置目录 关于分词 配置分词 验证成功1.关于分词 1.分词是指将一个中文词语拆成若干个词,提供搜索引擎进行查找,比如说:北京大学 是一个词那么进行拆分可以得到:北京与大学,甚至北京大学整个词也是一个语义 2.市面上常见的分词工具有 IKAnalyzer 
转载
2024-05-16 17:26:23
114阅读
1、下载IK Analyzer 2012FF_hf1.zip解压如下图:注解(IK Analyzer 2012才能支持solr4.0以上的版本)下载地址:http://pan.baidu.com/s/1c0nMOhE2、添加IK Analyzer 2012 FF 中文分词:把IKAnalyzer2012_FF文件夹IKAnalyzer2012_FF.jar放在tomcat1.6,webapps\s
原创
2015-01-21 15:26:21
569阅读
平台默认的搜索对于中文不是很理想,为了让商品的搜索更加本地化需要在建立索引的时候配置一个中文分词器。版本信息:Broadleaf-5.1.2+Tomcat7由于Broadleaf-5.1.2使用的是Solr5.3,导致找了很多ik的版本都不行,最后Google到一个可用的版本:https://github.com/EugenePig/ik-analyzer-solr5下面是配置过程:1、打开上述U
原创
2018-10-08 17:06:27
1438阅读