简介

Lucene 是什么?

Lucene 可以被认为是迄今为止最先进、性能最好的、功能最全的​​搜索引擎库​​。Lucene 只是一个库,想要发挥出强大作用,需要使用Java将其集成到应用中。Lucene非常复杂,需要深入了解检索相关知识理解它是如何工作的。

Elasticsearch 是什么?

Elasticsearch 是一个基于 Apache Lucene 的开源搜索引擎。

Elasticsearch 是使用Java编写并使用Lucene来建立索引并实现搜索功能。它的目的是通过简单连贯的​​RestFul API​​ 让全文搜索变得简单来隐藏Lucene的复杂性。

Elasticsearch 不仅仅是Lucene和全文搜索引擎,它还提供:

  • 分布式的实时文件存储,每个字段都被索引并可被搜索
  • 实时分析的分布式搜索引擎
  • 可以拓展到上百台服务器(集群),处理PB级结构化或非结构化数据

Elasticsearch 中涉及到的重要概念

  1. 接近实时(NRT)
    Elasticsearch 是一个接近实时的搜索平台。
  2. 集群(cluster)
    Elasticsearch 支持集群部署,一个集群就是由一个或多个节点组织在一起,它们共同持有整个数据,并一起提供索引和搜索功能。 一个集群由一个唯一的名字标识,默认“elasticsearch”
  3. 节点(node)
    一个节点是集群中的一个服务器,作为集群的一部分, 一一个节点也是由一个名字来标识,默认是一个随机的漫威漫画角色的名字。
    一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入“elasticsearch”集群中。
  4. 索引(index)
    一个索引就是一个拥有几分相似特征的文档的集合。 类似于关系型数据库(Mysql)中Database的概念。
    一个索引由一个名字来标识(必须全小写字母),并且当我们要对这个索引中的文档进行索引、搜索、更新和删除的时候,都要使用到这个名字
  5. 类型(type)
    在一个索引中,可以定义一种或多种类型。一个类型是索引的一个逻辑上的分类/分区。通常会为具有一组共同字段的文档定义一个类型。类似于关系型数据库(Mysql)中的Table 的概念。
  6. 文档(document)
    一个文档是一个可被索引的基础信息单元。文档以 JSON 格式来标识。
    在一个index/type里,只要想,可以存储任意多的文档。文档必须被索引/赋予一个索引的type。 文档类似于关系型数据库中的一条记录
  7. 分片和复制(shard & replicas) 一个索引可以存储超出单个节点硬件限制的大量数据。比如,一个具有10亿文档的索引占据了1TB的磁盘空间,单个节点没这么大的空间;或者单个节点处理搜索请求,相应太慢。为了解决这个问题,Elasticsearch 提供了将索引划分成多份的能力,这些份叫做分片(shard)。 当创建一个索引的时候,可以指定想要分片的数量。每个分片本身也是一个功能完善并且独立的索引,这个索引可以被放置到集群中的任何节点上。分片之所以重要,主要有两方面原因:
  • 允许水平分割,拓展内容容量
  • 允许在分片之上进行分布式的、并行的操作,进而提高性能/吞吐量
  1. 至于一个分片怎样分布,它的文档怎样聚合回搜索请求,完全由Elasticsearch管理。对于用户来说是透明的。
    副本指的是分片的副本,是shard的复制
    复制之所以重要,主要有两个原因:
  • 再shard/node失败的时候,它提供高可用性。正因为如此,复制的shard绝不会跟原始shard在同一个节点上
  • 拓展搜索量/吞吐量,因为搜索可以在所有的复制上并行运行

总结:每个索引可以被分成多个分片。 一个索引也可以被复制0次或多次。 一旦复制了,每个索引就有了主分片和复制分片。 分片和复制的数量可以在创建索引的时候指定。在索引创建之后,可以在任何时候动态地改变复制数量,但不能改变分片的数量。

小结

  • node 是一台服务器,表示集群中的节点
  • document 表示索引记录
  • 一个index中不建议定义多个type
  • 一个index可以有多个shard,每个shard可以有0个或多个副本
  • original shard(原始分片)的复制成为副本shard,简称 shard
  • 主分片和副本绝不会在同一个节点上
  • 分片的好处主要有两个:1.突破单台服务器的硬件限制;2.可以并行操作,从而提高性能和吞吐量(跟kafka类似)
  • 副本的好处主要在有两个:1.提供高可用; 2.并行提升性能和吞吐量
  • 一个索引包含一个或多个分片,索引记录(文档)数据存储在这些shard中,且一个文档只会存在于一个分片中
  • 每个shard都是一个独立的功能完善的“index”,意思是它可以独立处理索引/搜索请求

下载

下载

# 创建目录
$ mkdir -p /work/programs/elasticsearch
$ cd /work/programs/elasticsearch# 下载
$ wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.7.2.tar.gz


编辑配置

$ vi config/elasticsearch.yml


修改配置如下:

​network.host:0.0.0.0​​ :实现内网可访问。

启动

注意 :需要使用非Root账号启动。

# 解压
$ tar -zxvf elasticsearch-6.7.2.tar.gz
$ cd elasticsearch-6.7.2

# 启动。通过 -d 参数,表示后台运行。
$ bin/elasticsearch -d


可以通过 ​​logs/elasticsearch.log​​ 查看启动日志。

注意: 如果使用云服务器,要开放端口,才能公网IP访问

测试:

{
"name" : "rrpUhc6",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "7yQXN3VDRSikmUOh-fhXJA",
"version" : {
"number" : "6.7.2",
"build_flavor" : "default",
"build_type" : "tar",
"build_hash" : "56c6e48",
"build_date" : "2019-04-29T09:05:50.290371Z",
"build_snapshot" : false,
"lucene_version" : "7.7.0",
"minimum_wire_compatibility_version" : "5.6.0",
"minimum_index_compatibility_version" : "5.0.0"
},
"tagline" : "You Know, for Search"
}


安装ik分词器插件

以安装ik分词器为例

,提供了各个 elasticsearch-analysis-ik 插件版本。要注意,一定和 Elasticsearch 版本一致。

#cd到elasticsearch目录下 下载
$ wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.7.2/elasticsearch-analysis-ik-6.7.2.zip

# 需要解压到 plugins/ik/ 目录下
$ unzip elasticsearch-analysis-ik-6.5.0.zip -d plugins/ik/

# 查找 ES 进程,并关闭它
$ ps -ef | grep elastic
$ kill 2382 # 假设我们找到的 ES 进程号为 2382 。

# 启动 ES 进程
$ bin/elasticsearch -d

# 测试ik分词器
# ik_max_word 模式
$ curl -X POST \
http://localhost:9200/_analyze \
-H 'content-type: application/json' \
-d '{
"analyzer": "ik_max_word",
"text": "百事可乐"
}'

# ik_smart 模式
$ curl -X POST \
http://localhost:9200/_analyze \
-H 'content-type: application/json' \
-d '{
"analyzer": "ik_smart",
"text": "百事可乐"
}'


安装 elasticsearch-head

elasticsearch-head 需要node环境支持

安装node环境,这边假设已经安装完成

[lyk@iZwz99hfh1ddgd1z6q5u3mZ elasticsearch-6.7.2]$ node -v
v10.24.0
[lyk@iZwz99hfh1ddgd1z6q5u3mZ elasticsearch-6.7.2]$ npm -v
6.14.11


从github下载elasticsearch-head 并解压

我这边解压到了 head-master文件夹;

wget https://github.com/mobz/elasticsearch-head/archive/master.zip
unzip master.zip


npm 安装阿里镜像 提速

[root@iZwz99hfh1ddgd1z6q5u3mZ head-master]# npm install cnpm -g --registry=https://registry.npm.taobao.org


安装head 所需的包

[root@iZwz99hfh1ddgd1z6q5u3mZ head-master]# cnpm install


修改 Gruntfile.js文件

[root@iZwz99hfh1ddgd1z6q5u3mZ head-master]# vi Gruntfile.js 


Elasticsearch 01简单入门 以及 Head 插件安装_elasticsearch

启动head插件

[root@iZwz99hfh1ddgd1z6q5u3mZ head-master]# npm run start

> elasticsearch-head@0.0.0 start /work/programs/elasticsearch/head-master
> grunt server

Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100


Elasticsearch 01简单入门 以及 Head 插件安装_服务器_02

修改 elasticsearch-head 默认连接地址

[root@iZwz99hfh1ddgd1z6q5u3mZ head-master]# cd _site/
[root@iZwz99hfh1ddgd1z6q5u3mZ _site]# vi app.js


Elasticsearch 01简单入门 以及 Head 插件安装_服务器_03

连接会有跨域问题,需要解决跨域

在 elasicsearch.yml文件末尾加跨域配置

#允许跨域
http.cors.enabled: true
http.cors.allow-origin: "*"


启动 head 服务

[lyk@iZwz99hfh1ddgd1z6q5u3mZ head-master]$ cd node_modules/grunt/bin/
[lyk@iZwz99hfh1ddgd1z6q5u3mZ bin]$ ./grunt server &
[1] 1331
[lyk@iZwz99hfh1ddgd1z6q5u3mZ bin]$ Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100


Elasticsearch 01简单入门 以及 Head 插件安装_服务器_04

集群健康值描述

  • 绿色:最健康的状态,代表所有的分片包括备份都可用
  • 黄色:基本的分片可用,但是备份不可用(也可能是没有备份)
  • 红色:部分的分片可用
  • 灰色: 未连接到elasticsearch服务