solr专题

solr单机环境的搭架(1)

一配置solr环境 1.下载solr 2.配置solr(最好单独分离出一个tomcat,一台机器启动多个tomcat参见:http://www.cnblogs.com/lxlwellaccessful/p/6746341.html)   a.在下载的solr文件夹下的\example\solr\下将文件全部考到一个文件夹中(本人是放在E:\MySoft\solr\home中的)

Solr集群的搭建和使用(2)

1   什么是SolrCloud   SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使  用SolrCloud来满足这些需求。   SolrCloud是基于Solr和Zookeeper的分布式搜索

【Solr 学习笔记】Solr 源码启动教程

Solr 源码启动教程 本教程记录了如何通过 IDEA 启动并调试 Solr 源码,从 Solr9 开始 Solr 项目已由 ant 方式改成了 gradle 构建方式,本教程将以 Solr 9 为例进行演示,IDE 选择使用 IntelliJ IDEA。 Solr github 地址:https://github.com/apache/solr JDK 版本:jdk17 关于系统版本可以参考:

AnyQ如何配置solr动态读取数据库——AnyQ系列之二

一、anyq容器host模式运行 由于anyq容器,后期还会有其他端口需要访问,比如solr的webapp页面端口就是8900,等等。所以可以采用host方法run一个新的容器。 #提交anyq镜像,生成新镜像anyq-host,并run新的anyq-host容器docker stop anyqdocker commit anyq anyq-host#使用--privileged=tru

Solr集群(即SolrCloud)搭建与使用

1、什么是SolrCloud  SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用

Solr7.4.0报错org.apache.solr.common.SolrException

文章目录 org.apache.solr.common.SolrException: Exception writing document id MATERIAL-99598435990497269125316 to the index; possible analysis error: cannot change DocValues type from NUMERIC to SORTED_

solr 杂记 容易被忽略的异常操作

1.权重与排序 sort排序与solr配置文件的sql排序冲突。 即:order by date desc            sort=date desc

solr-1.4.1 环境配置

solr-1.4.1 环境配置: Solr是一个apache名下很好用的开源索引、搜索工具,网上的资料虽多但很杂,笔者花了一天的时间对Solr进行了较为初步的研究,对Solr的基础应用做了一定的总结。文中涉及到的配置方法并不唯一,API的用法也未必规范,仅希望能够通过此文让大家对solr更快的入手。   一、Solr的安装环境与配置:   1、  下载所需软件,安装配置

HBase + Solr Cloud实现HBase二级索引

1. 执行流程   2. Solr Cloud实现 http://blog.csdn.net/u011462328/article/details/53008344 3. HBase实现 1) 自定义Observer ① 代码 package cn.bfire.coprocessor;import com.typesafe.config.Config;import com

Solr 6.2.1 集群部署

1. 依赖环境 1) JDK1.8 2) Zookeeper 2. 安装包在所有节点解压,无需做任何更改 3. 启动Solr 在每个节点执行 $SOLR_HOME/bin/solr start -cloud -s $SOLR_HOME/server/solr -z center-datanode11:2181,center-datanode12:2181,center-namenode:

solr 自动补全操作(2)

//存储补全的数据集合 List<Term> items = null; //获取前台传输的参数 String q= request.getParameter("q"); if (q == null || "".equals(q)) { q = "so"; } SolrQuery query = new SolrQuery(); //补全查询的字段 = name

solr 自动补全操作(1)

public List<Term> spellQuery(String q) { //接收返回来的值 List<Term> items = null; String q= request.getParameter("q"); //设置基本参数 SolrQuery query = new SolrQuery(); //需要补全的字段名称 query.addTermsField("sea

java搜索引擎Apache的solr初探-安装使用导入mysql数据

小陈博主 2017-10-25 21:57 前言碎语 Solr是一个高性能,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面,和Elasticseach一样是一款非常优秀的全文搜索引擎 写此文的目的也是看网上诸多的安装使用教程都比较老了,步骤也比较繁琐,下面介

linux-centos安装solr及通过zookeeper搭建solr集群

一、安装单机版solr(以solr-4.9.1.zip为例)1、将solr-4.9.1\example\webapps下的solr.war上传到linux中的tomcat下webapps2、运行tomcat,会自动出现一个solr文件夹3、拷取jar包      将solr-4.9.1\example\lib\ext下的jar包拷至tomcat下/webapps/solr/WEB-INF/lib下

solr同义词的配置

1 1.      在schemal.xml中配置: <fieldType name="text_syn"class="solr.TextField">  <analyzertype="query">  <tokenizer class="solr.WhitespaceTokenizerFactory"/>  <filterclass="solr.LowerCaseF

【Solr6.6.0】Solr对IK分词器的配置、Solr自动生成唯一ID、Solr服务器的增量和全量更新(五)

版权声明:本文为博主原创文章,未经博主允许不得转载。 转载请标明出处:http://blog.csdn.net/u011035026/article/details/79568628

solr控制脚本命令

solr控制脚本命令 可以使用bin/solr 的脚本 将允许solr安装或集群上执行许多常见的操作,可以启动或体质solr,创建和删除集合或内核,在zk上执行操作,并检查solr和配置的分片的状态 启动和通知solr bin/solr start/restart 使用restart命令是,必须传递您在启动solr时最初传递的所有参数 启动参数 bin/solr脚本提供许多参数如: -a

solr核心组成

solr核心组成 solr的实例类似于关系数据库找那个的表结构,核心配置文件为 managed-schemamanaged-schema 文件主要包含三部分:字段(Field),字段类型(FieldType) ,唯一键(uniqueKey)solr采用的是一种反向索引,就是重关键字到文档的映射过程,保存这种映射这种信息的所以称为反向索引使用分词组件将文档分成一个个单独的单词,去除标点符号,去除停

solr 错误:Caused by: org.wltea.analyzer.lucene.IKAnalyzer

一、    问题描述 CDH5.15.2的solr集群下,创建ik分词器的实例,但是报错。Ik分词器的配置文件都已经上传各个节点solr对应目录下,但是还是报错: solrctl collection --create test_ik4 -s 2 -c test_ik -r 1 -m 3报错<?xml version="1.0" encoding="UTF-8"?> <response> <

如何使用solr的join

[b][color=olive][size=large]对于用惯数据库的我们,多表进行join连接,是非常常见的一个需求,但是在我们的索引中,对join的支持,却不是很完美,当然这并不是由于我们的Lucene或Solr不够强大,而是全文检索与数据库的定位不是在同一个目标上,全文检索,主要定位在搜索引擎上,通常是对一个大的索引进行高效检索,而数据库则是定位在结构化数据的存储于与检索,检索功能比较薄弱

如何在eclipse中部署solr的web工程?

[b][color=green][size=large]在eclipse中调试solr,便于我们更加的清晰的了解solr的运行原理,今天散仙,就详细的写一下如何eclipse部署solr(4.10.0版本)的web工程。 首先在eclipse(散仙这里是4.2)里,新建一个动态的Web工程, [/size][/color][/b] [img]http://dl2.iteye.com/

Apache Pig和Solr问题笔记(一)

记录下最近两天散仙在工作中遇到的有关Pig0.12.0和Solr4.10.2一些问题,总共有3个,如下: (1)问题一: 如何Pig中使用ASCII和十六进制(hexadecimal)的分隔符进行加载,和切分数据? 注意关于这个问题,在Pig中,会反应到2个场景中, 第一: 在Pig加载(load)数据时候 。 第二: 在Pig处理split,或则正则截取数据的时候。 先稍微说下,

Solr字段ExternalFileField使用

ExternalFileField是一种非常灵活的定义排序的一种字段,适用于一些需要临时提高某些doc的排名,但是又不想显式的把评分建立到索引里面,这种需求,在电商的业务里面,经常会遇到一些特定的节日进行商品大促,需要临时提高一批索引数据的排名,而又不想重建整个索引,在大促结束后,这些排名又恢复正常,这种场景下非常适合使用ExternalFileField来解决,与竞价排名非常类似。  Exte

Hbase+Solr实现二级索引提供高效查询

[size=medium] 接着上一篇介绍协处理器的文章[url]http://qindongliang.iteye.com/blog/2277145[/url],本篇我们来实战一个例子,看下如何使用协处理来给Hbase建立二级索引。 github地址:[url]https://github.com/qindongliang/hbase-increment-index[/url]

Lucene/Solr/ElasticSearch搜索问题案例分析

最近收集的两个搜索的case,如下:  案例一:  使用 A关键词:“中国诚通控股公司”搜索,不能搜到 B结果“中国诚通控股集团有限公司”  从关键词字面上看,确实不应该出现这种问题,因为A的关键词完全被B包含,如果说搜索B,搜不到A到还可以接受,因为  在关键词越长的情况下,term之间是AND的关系,这样返回结果集就越少,这一点从Google或者其他电商的搜索都可以得

Lucene+Solr+ElasticSearch查询匹配优化

当我们在处理搜索业务时候,需求往往是灵活多变的,有时候我们需要精确匹配,有时候我们又需要全文检索,而有时候,我们又想匹配度高而且还能全文检索,这似乎是精确匹配和模糊匹配一个妥协的策略,没错这就是搜索引擎出现的目的,以往的数据库是没法解决这种问题的,数据库只能回答有,没有,存在,不存在,并不能在有和没有之间做一个完美的妥协,比如说能把最匹配最相关的结果放在topN,仅靠like模糊查询是解决不了这种