zookeeper服务搭建
- 前言
- 1. 前置准备
- 2. 下载和解压Zookeeper
- 3. 配置环境变量
- 4. 编辑Zookeeper配置文件
- 5. 配置Zookeeper节点ID
- 6. 配置好的Zookeeper分发到其他节点
- 7. 启动Zookeeper集群
- 参考博客
前言
Zookeeper是一个开源的分布式协调服务,主要用于解决分布式应用中的一致性问题。它提供了一个高可用的、具有严格顺序访问特性的分布式数据管理系统。本文将介绍如何搭建Zookeeper服务。
1. 前置准备
- 安装JDK
- 配置Hadoop集群
因为之前写过,这里就不重复了,如果没有配置这些可以先配置一下
2. 下载和解压Zookeeper
在Zookeeper官网上下载Zookeeper的安装包,我这里用的是zookeeper-3.5.7
如果觉得官网慢可以在我的百度网盘中下载
链接:https://pan.baidu.com/s/1bh6vctylCqFgvWaa-D6jXQ
提取码:55k9
wget https://downloads.apache.org/zookeeper/zookeeper-3.5.7/apache-zookeeper-3.5.7-bin.tar.gz
tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz -C /opt/module/
mv apache-zookeeper-3.5.7-bin/ zookeeper-3.5.7
3. 配置环境变量
编辑环境配置文件
vim /etc/profile.d/my_env.sh
加入下面这些配置
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_333
export PATH=$PATH:$JAVA_HOME/bin#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin#ZOOKEEPER_HOME
export ZOOKEEPER_HOME=/opt/module/zookeeper-3.5.7
export PATH=$PATH:$ZOOKEEPER_HOME/bin#解决hadoop无法启动问题
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
使配置文件生效
source /etc/profile.d/my_env.sh
4. 编辑Zookeeper配置文件
拷贝zookeeper的conf目录下zoo_sample.cfg文件,重命名,编辑
cd /opt/module/zookeeper-3.5.7/conf/
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
在zoo.cfg
文件中,设置以下必要的配置:
dataDir=/opt/module/zookeeper-3.5.7/data/zData
:指定Zookeeper数据目录。server.1=hadoop101:2888:3888
:定义Zookeeper节点1的主机名、数据端口和选举端口。server.2=hadoop102:2888:3888
:定义Zookeeper节点2的主机名、数据端口和选举端口。server.3=hadoop103:2888:3888
:定义Zookeeper节点3的主机名、数据端口和选举端口。
具体配置如下:
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/opt/module/zookeeper-3.5.7/data/zData
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=hadoop101:2888:3888
server.2=hadoop102:2888:3888
server.3=hadoop103:2888:3888
5. 配置Zookeeper节点ID
在每个Zookeeper节点的数据目录(/opt/module/zookeeper-3.5.7/data/zData
)下创建一个名为myid
的文件,其中包含该节点的ID。例如,节点1的myid
文件中包含1
,节点2的myid
文件中包含2
,以此类推。
mkdir -p /opt/module/zookeeper-3.5.7/data/zData
vim /opt/module/zookeeper-3.5.7/data/zData/myid
输入1即可,另外两台节点分别为2、3
6. 配置好的Zookeeper分发到其他节点
将配置好的zookeeper和环境文件分发到其他服务器
cd /opt/module/
xsync zookeeper-3.5.7/
xsync /etc/profile.d/my_env.sh
# 记得刷新其他服务器环境
source /etc/profile.d/my_env.sh
分发完后记得改另外两台服务器的/opt/module/zookeeper-3.5.7/data/zData/myid文件
7. 启动Zookeeper集群
在每个节点上启动Zookeeper服务(记得关闭防火墙):
cd /opt/module/zookeeper-3.5.7/bin
./zkServer.sh start
您可以使用以下命令检查Zookeeper集群的状态:
./zkServer.sh status
如果一切正常,您将看到输出类似于以下内容:
Mode: follower
Leader: 10.0.0.1:3888
请注意,节点1将成为初始的Leader节点。
现在,您已经成功搭建了Zookeeper集群。您可以通过连接到任何一个Zookeeper节点的数据端口(默认为2181)来使用Zookeeper。
参考博客
- (超详细)基于Zookeeper的Hadoop HA集群的搭建