Elasticsearch 在linux部署 及 Docker 集群部署详解案例示范

1. 在 CentOS 上安装和配置 Elasticsearch

在 CentOS 系统下,安装 Elasticsearch 主要分为以下步骤:

1.1 准备工作

在开始安装之前,确保你的系统满足以下基本条件:

  1. CentOS 版本要求:推荐使用 CentOS 7 及以上版本。
  2. Java 环境:Elasticsearch 依赖于 Java 运行时环境 (JRE)。需要确保 Java 版本为 8 或更高。
  3. 系统资源:Elasticsearch 对内存和磁盘有较高要求,至少 4GB 的内存,推荐 8GB 或更高,并确保有足够的磁盘空间来存储索引数据。

1.2 安装 Java

首先,确认系统已经安装了 Java,如果没有,可以通过以下命令安装 OpenJDK 8:

sudo yum install java-1.8.0-openjdk-devel

安装完成后,验证 Java 版本:

java -version

确保输出显示 Java 版本为 1.8 及以上。

1.3 下载并安装 Elasticsearch

  1. 添加 Elasticsearch 官方仓库:
sudo rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
  1. 创建 Elasticsearch 的 yum 仓库文件:
sudo nano /etc/yum.repos.d/elasticsearch.repo

将以下内容粘贴进去:

[elasticsearch-8.x]
name=Elasticsearch repository for 8.x packages
baseurl=https://artifacts.elastic.co/packages/8.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md

保存文件并退出。

  1. 更新仓库并安装 Elasticsearch:
sudo yum update
sudo yum install elasticsearch

1.4 配置 Elasticsearch

Elasticsearch 的配置文件位于 /etc/elasticsearch/elasticsearch.yml。这是主要的配置文件,你需要根据实际需求进行修改。

1.4.1 基本配置

打开配置文件:

sudo nano /etc/elasticsearch/elasticsearch.yml

我们首先配置集群名称和节点名称:

# 集群名称
cluster.name: my-application-cluster# 节点名称
node.name: node-1
1.4.2 网络配置

默认情况下,Elasticsearch 仅绑定到 localhost,这意味着它只能在本机上访问。如果你希望在网络中访问 Elasticsearch,需要修改以下配置:

# 绑定地址为所有网络接口
network.host: 0.0.0.0# 配置允许的端口
http.port: 9200
1.4.3 数据和日志路径

Elasticsearch 默认将数据存储在 /var/lib/elasticsearch,日志存储在 /var/log/elasticsearch。可以根据需求修改这些路径:

# 数据存储路径
path.data: /path/to/your/data# 日志存储路径
path.logs: /path/to/your/logs
1.4.4 JVM 配置

Elasticsearch 的性能很大程度上依赖于内存的分配。在生产环境中,推荐设置 JVM 的堆内存大小为系统总内存的 50%。你可以通过修改 jvm.options 文件来配置:

sudo nano /etc/elasticsearch/jvm.options

找到 -Xms-Xmx 选项并修改为适合的大小:

-Xms4g  # 设置最小堆内存为 4GB
-Xmx4g  # 设置最大堆内存为 4GB

1.5 启动 Elasticsearch

配置完成后,可以使用以下命令启动 Elasticsearch:

sudo systemctl start elasticsearch

确保 Elasticsearch 开机启动:

sudo systemctl enable elasticsearch

检查 Elasticsearch 服务状态:

sudo systemctl status elasticsearch

1.6 验证安装

Elasticsearch 启动成功后,打开浏览器,访问 http://localhost:9200/。如果看到类似以下的 JSON 输出,说明安装成功:

{"name" : "node-1","cluster_name" : "my-application-cluster","cluster_uuid" : "xxxxxx","version" : {"number" : "8.x.x","build_flavor" : "default","build_type" : "rpm","build_hash" : "xxxxxxx","build_date" : "2024-xx-xx","build_snapshot" : false,"lucene_version" : "9.x","minimum_wire_compatibility_version" : "7.x","minimum_index_compatibility_version" : "7.x"},"tagline" : "You Know, for Search"
}

2. Docker 中部署 Elasticsearch

在生产环境和开发环境中,Docker 可以极大简化 Elasticsearch 的部署过程。通过 Docker,你可以轻松地在多个环境中创建一致的运行环境,而不必担心安装和配置过程中的细节问题。下面将详细介绍如何在 Docker 中部署单节点和集群版本的 Elasticsearch。

2.1 安装 Docker

首先,需要在 CentOS 上安装 Docker:

sudo yum install -y yum-utils
sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
sudo yum install docker-ce docker-ce-cli containerd.io

启动并启用 Docker 服务:

sudo systemctl start docker
sudo systemctl enable docker

验证 Docker 安装是否成功:

docker --version

输出类似以下内容即表示 Docker 安装成功:

Docker version 24.0.0, build abcdefg

2.2 Docker 中的单节点 Elasticsearch 部署

  1. 拉取 Elasticsearch Docker 镜像
docker pull docker.elastic.co/elasticsearch/elasticsearch:8.x.x
  1. 运行单节点 Elasticsearch 容器
docker run -d --name elasticsearch -p 9200:9200 -p 9300:9300 \-e "discovery.type=single-node" \docker.elastic.co/elasticsearch/elasticsearch:8.x.x
  • -d 表示在后台运行容器。
  • --name 设置容器名称为 elasticsearch
  • -p 映射宿主机的端口(9200 是 HTTP 端口,9300 是集群节点间通信的端口)。
  • discovery.type=single-node 指定为单节点模式,不启动集群。
  1. 验证 Elasticsearch 是否成功运行

运行以下命令查看 Docker 容器的状态:

docker ps

应该能看到类似以下输出,表明容器正在运行:

CONTAINER ID   IMAGE                                           STATUS          PORTS
xxxxxxxxxx     docker.elastic.co/elasticsearch/elasticsearch   Up 10 seconds   0.0.0.0:9200->9200/tcp, 0.0.0.0:9300->9300/tcp

打开浏览器并访问 http://localhost:9200/,如果看到类似以下的 JSON 响应,表示 Elasticsearch 运行正常:

{"name" : "elasticsearch","cluster_name" : "docker-cluster","cluster_uuid" : "xxxxxx","version" : {"number" : "8.x.x","build_flavor" : "default","build_type" : "docker","build_hash" : "xxxxxxx","build_date" : "2024-xx-xxTxx:xx:xx","build_snapshot" : false,"lucene_version" : "9.x","minimum_wire_compatibility_version" : "7.x","minimum_index_compatibility_version" : "7.x"},"tagline" : "You Know, for Search"
}

2.3 使用 Docker Compose 部署 Elasticsearch 集群

在生产环境中,通常需要部署多个节点组成集群。使用 Docker Compose,可以更方便地管理多节点部署。下面是如何使用 Docker Compose 部署 Elasticsearch 集群。

  1. 安装 Docker Compose

如果你尚未安装 Docker Compose,可以通过以下命令安装:

sudo curl -L "https://github.com/docker/compose/releases/download/v2.20.0/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose

验证安装是否成功:

docker-compose --version
  1. 创建 Docker Compose 配置文件

在项目目录下创建一个名为 docker-compose.yml 的文件,内容如下:

version: '3'
services:elasticsearch-node1:image: docker.elastic.co/elasticsearch/elasticsearch:8.x.xcontainer_name: es-node1environment:- node.name=es-node1- cluster.name=es-docker-cluster- discovery.seed_hosts=es-node2,es-node3- cluster.initial_master_nodes=es-node1,es-node2,es-node3- bootstrap.memory_lock=true- "ES_JAVA_OPTS=-Xms512m -Xmx512m"ulimits:memlock:soft: -1hard: -1volumes:- esdata1:/usr/share/elasticsearch/dataports:- 9200:9200- 9300:9300elasticsearch-node2:image: docker.elastic.co/elasticsearch/elasticsearch:8.x.xcontainer_name: es-node2environment:- node.name=es-node2- cluster.name=es-docker-cluster- discovery.seed_hosts=es-node1,es-node3- cluster.initial_master_nodes=es-node1,es-node2,es-node3- bootstrap.memory_lock=true- "ES_JAVA_OPTS=-Xms512m -Xmx512m"ulimits:memlock:soft: -1hard: -1volumes:- esdata2:/usr/share/elasticsearch/dataelasticsearch-node3:image: docker.elastic.co/elasticsearch/elasticsearch:8.x.xcontainer_name: es-node3environment:- node.name=es-node3- cluster.name=es-docker-cluster- discovery.seed_hosts=es-node1,es-node2- cluster.initial_master_nodes=es-node1,es-node2,es-node3- bootstrap.memory_lock=true- "ES_JAVA_OPTS=-Xms512m -Xmx512m"ulimits:memlock:soft: -1hard: -1volumes:- esdata3:/usr/share/elasticsearch/datavolumes:esdata1:driver: localesdata2:driver: localesdata3:driver: local

该配置文件定义了 3 个 Elasticsearch 节点,它们组成一个集群,每个节点都将数据存储在独立的卷上。

  1. 启动 Elasticsearch 集群

docker-compose.yml 文件所在的目录中运行以下命令:

docker-compose up -d

此命令将启动 3 个 Elasticsearch 节点并组成一个集群。你可以通过以下命令查看运行状态:

docker-compose ps
  1. 验证集群状态

可以通过 API 请求检查集群状态:

curl -X GET "localhost:9200/_cluster/health?pretty"

如果集群状态为 green,说明集群已成功启动且工作正常。


3. 集群环境部署详解

Elasticsearch 集群是一种分布式架构,通过水平扩展节点来提升系统的容量和性能。一个典型的集群通常包含多个 Master 节点Data 节点协调节点。下面详细介绍 Elasticsearch 集群的核心组件和集群部署的关键配置。

3.1 Master 节点和 Data 节点

  • Master 节点:负责管理整个集群的元数据,包括节点加入/退出、索引创建/删除、分片分配等操作。一个集群应该有多个 master 节点以提高容错性。
  • Data 节点:负责存储实际的数据,并执行索引、搜索等操作。data 节点的数量决定了集群的存储容量和处理能力。

在生产环境中,通常会通过独立的配置文件来指定节点角色,确保 master 节点和 data 节点的职责明确。

3.1.1 配置 Master 节点

elasticsearch.yml 中设置节点角色为 master:

node.master: true
node.data: false

此配置确保该节点只作为 master 角色,不处理数据存储和搜索请求。

3.1.2 配置 Data 节点

elasticsearch.yml 中设置节点角色为 data:

node.master: false
node.data: true

Data 节点负责存储和搜索数据,不参与集群的管理操作。

3.2 分片与副本

Elasticsearch 通过将索引数据拆分为多个 分片(Shards) 来提高系统的可扩展性和性能。每个分片可以存储在集群中的不同节点上,实现数据的水平扩展。同时,Elasticsearch 通过 副本(Replicas) 提供数据冗余和高可用性。副本是分片的复制版,当主分片失效时,副本可以继续提供服务。

配置分片和副本数量时,可以通过如下方式进行设置:

PUT /my-index
{"settings": {"index": {"number_of_shards": 5,"number_of_replicas": 1}}
}

在这个配置中,索引 my-index 将被拆分为 5 个主分片,并为每个分片创建 1 个副本。

3.3 集群的健康状态检查

集群启动后,可以通过 Elasticsearch 提供的 API 来检查集群的健康状态。健康状态分为三种:

  • green:所有分片和副本都分配到位。
  • yellow:所有主分片分配到位,但副本分片未完全分配(通常是因为缺少足够的节点)。
  • red:部分主分片未能分配,可能导致数据丢失。

使用以下命令检查集群的健康状态:

curl -X GET "localhost:9200/_cluster/health?pretty"

输出如下表示集群处于健康状态:

{"cluster_name" : "docker-cluster","status" : "green","number_of_nodes" : 3,"number_of_data_nodes" : 3,"active_primary_shards" : 5,"active_shards" : 10,"relocating_shards" : 0,"initializing_shards" : 0,"unassigned_shards" : 0,"delayed_unassigned_shards" : 0,"number_of_pending_tasks" : 0,"number_of_in_flight_fetch" : 0
}

在生产环境中,确保集群健康是非常重要的,可以通过设置警报和自动化监控来及时检测和修复问题。


通过 Docker 部署 Elasticsearch,可以极大简化集群的管理和扩展。无论是单节点还是集群部署,Docker 都能提供一致的运行环境,极大地提高了灵活性和可维护性。在生产环境中,还应根据具体需求优化内存分配、数据持久化和安全性配置。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/457663.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

学习笔记:黑马程序员JavaWeb开发教程(2024.10.26)

P3 Day01-02 需要记住: P4 Web前端开发 P34 Ajax介绍 对于异步交互的举例:浏览器中输入不同的关键词,会有不同的提示,但是浏览器没有进行刷新 同步,会进行等待,在浏览器中访问链接,点击网页什么…

keepalived+web 实现双机热备

环境:利用keeplived实现web服务器的双机热备(高可用) 注意: (1) 利用keeplivedweb做双击热备(高可用),最少需要两台服务器,可以实现多域名对应一个VIP,并且访问不同域名,显示不同主页&#xf…

fetch: 取消请求、读取流、获取下载进度...

引言 Fetch API 提供了一个获取资源的接口(包括跨网络通信)。对于任何使用过 XMLHttpRequest 的开发者来说, 对于 Fetch 应该都能轻松上手, 而且新的 API 提供了更强大和灵活的功能集… 本文主要就是记录下, 在使用 Fetch 期间可能会碰到的几个小案例… 一、取消请求 在前端…

【动态规划】力扣509. 斐波那契数

目录 一、题目二、代码 一、题目 二、代码 class Solution {public int fib(int n) {if (n < 1) {return n;}int[] f new int[n 1];f[0] 0;f[1] 1;for (int i 2; i < n; i) {f[i] f[i - 1] f[i - 2];}return f[n];} }

从蚂蚁金服面试题窥探STW机制

背景 在Java虚拟机&#xff08;JVM&#xff09;中&#xff0c;垃圾回收&#xff08;GC&#xff09;是一个至关重要的机制&#xff0c;它负责自动管理内存的分配和释放。然而&#xff0c;垃圾回收过程并非没有代价&#xff0c;其中最为显著的一个影响就是STW&#xff08;Stop-T…

Flink CDC系列之:学习理解核心概念——Data Pipeline

Flink CDC系列之&#xff1a;学习理解核心概念——Data Pipeline 数据管道sourcesink管道配置Table IDroutetransform案例 数据管道 由于 Flink CDC 中的事件以管道方式从上游流向下游&#xff0c;因此整个 ETL 任务被称为数据管道。 管道对应于 Flink 中的一系列操作。 要描…

知识见闻 - 磁力片原理

磁力片是一种利用磁性原理设计的玩具&#xff0c;它的工作原理和磁性方向的排列方式非常有趣。让我们深入了解一下磁力片的核心原理和磁性方向的特点。 磁力片的基本原理 磁力片的工作原理基于磁铁的基本特性。每个磁力片都包含多个小磁铁&#xff0c;这些磁铁被精心排列&#…

初识Linux · 动静态库(incomplete)

目录 前言&#xff1a; 静态库 动态库 前言&#xff1a; 继上文&#xff0c;我们从磁盘的理解&#xff0c;到了文件系统框架的基本搭建&#xff0c;再到软硬链接部分&#xff0c;我们开始逐渐理解了为什么运行程序需要./a.out了&#xff0c;这个前面的.是什么我们也知道了。…

如何在 Linux 中对 USB 驱动器进行分区

如何在 Linux 中对 USB 驱动器进行分区 一、说明 为了在 Linux 上访问 USB 驱动器&#xff0c;它需要有一个或多个分区。由于 USB 驱动器通常相对较小&#xff0c;仅用于临时存储或轻松传输文件&#xff0c;因此绝大多数用户会选择只配置一个跨越整个 USB 磁盘的分区。但是&a…

️ Vulnhuntr:利用大型语言模型(LLM)进行零样本漏洞发现的工具

在网络安全领域&#xff0c;漏洞的发现和修复是保护系统安全的关键。今天&#xff0c;我要向大家介绍一款创新的工具——Vulnhuntr&#xff0c;这是一款利用大型语言模型&#xff08;LLM&#xff09;进行零样本漏洞发现的工具&#xff0c;能够自动分析代码&#xff0c;检测远程…

编写一个简单的Iinput_dev框架

往期内容 本专栏往期内容&#xff1a; input子系统的框架和重要数据结构详解-CSDN博客input device和input handler的注册以及匹配过程解析-CSDN博客input device和input handler的注册以及匹配过程解析-CSDN博客 I2C子系统专栏&#xff1a; 专栏地址&#xff1a;IIC子系统_憧憬…

2024年CentOS镜像下载地址,包括CentOS官网、国内镜像下载,超详细也

这里给大家提供了4种镜像下载地址&#xff0c;包括CentOS官方镜像下载、阿里云开源镜像站下载、网易开源镜像下载搜狐开源镜像下载。 1.CentOS官网镜像下载 因为服务器在国外所以打开CentOS官方网站的时候可能会比较慢。大家可以选择后面几种国内镜像下载方式。 1.1进入CentO…

《决策思维:人人必备的决策口袋书》

本书干货很多&#xff0c;十分值得一读。但受众不是一线员工与一线管理者&#xff0c;更多的倾向于管理者的管理者。一线员工读完的最大收获是可以理解老板的决策逻辑与思维方式&#xff0c;便于更好的去做执行。同时&#xff0c;还能帮助判断老板的决策是否正确&#xff0c;是…

esp32学习:语音识别教程esp-skainet库的使用

乐鑫推出了基于esp_sr算法的语音识别应用esp-skainet。官方介绍&#xff1a;ESP-Skainet 以最便捷的方式支持基于乐鑫的 ESP32系列 芯片的唤醒词识别和命令词识别应用程序的开发。使用 ESP-Skainet&#xff0c;您可以轻松构建唤醒词识别和命令词识别应用程序。 支持的主要功能…

C#通过异或(^)运算符制作二进制加密(C#实现加密)

快速了解异或运算符&#xff1a; 异或运算符在C#中用 “^” 来表示 口诀&#xff1a;相同取0&#xff0c;相异取1 简单加密解密winform示例&#xff1a; /// <summary>/// 异或运算符加密实现/// </summary>/// <param name"p_int_Num">初始值<…

网络原理之 TCP解释超详细!!!

TCP 有连接的 可靠传输 面向字节流 全双工 其中最核心的是可靠传输 那么 TCP 如何使用可靠传输的 ??? 我们尽可能传过去, 如果传不过去,发送方至少知道自己没传过去, 所以在于接收方, 收到或者没有收到, 都会有应答的操作 1. 确认应答 实现可靠性最核心的机制!!! 引出 …

【2024最新】渗透测试工具大全(超详细),收藏这一篇就够了!

所有工具仅能在取得足够合法授权的企业安全建设中使用&#xff0c;在使用所有工具过程中&#xff0c;您应确保自己所有行为符合当地的法律法规。如您在使用所有工具的过程中存在任何非法行为&#xff0c;您将自行承担所有后果&#xff0c;所有工具所有开发者和所有贡献者不承担…

eks节点的网络策略配置机制解析

参考链接 vpc-cni网络策略最佳实践&#xff0c;https://aws.github.io/aws-eks-best-practices/security/docs/network/#additional-resourcesvpc cni网络策略faq&#xff0c;https://github.com/aws/amazon-vpc-cni-k8s/blob/0703d03dec8afb8f83a7ff0c9d5eb5cc3363026e/docs/…

IP数据报的 分片与组装技术 深度解析

&#x1f351;个人主页&#xff1a;Jupiter. &#x1f680; 所属专栏&#xff1a;计算机网络高效通关之路 欢迎大家点赞收藏评论&#x1f60a; 目录 IP 分片和组装分片与组装的过程分片组装 分片与组装过程的示意图分片组装过程 IP 分片和组装 16 位标识(id): 唯一的标识主机发…

Redis 事务 总结

前言 相关系列 《Redis & 目录》&#xff08;持续更新&#xff09;《Redis & 事务 & 源码》&#xff08;学习过程/多有漏误/仅作参考/不再更新&#xff09;《Redis & 事务 & 总结》&#xff08;学习总结/最新最准/持续更新&#xff09;《Redis & 事务…