下载Kafka压缩包
下方是Kafka官网下载地址,本文使用Kafka 3.0.0
在虚拟机环境中搭建分布式集群。
Apache Kafka Downloads link
虽然在Kafka 2.8.0
之后可以使用KRaft
模式搭建高可用的集群以提高数据处理效率,但是目前还有许多企业依然使用ZooKeeper搭建Kafka集群,所以本文也采用ZooKeeper组件来搭建Kafka分布式集群。
基于ZooKeeper的Kafka高可用集群
本文使用三台CentOS7
虚拟机分别搭建三个broker
节点的Kafka
集群。以broker ID为0的节点为例,下方是该节点配置Kafka的具体步骤,另外两个broker节点的配置步骤与其一致。
- 解压
kafka_2.12-3.0.0.tgz
压缩包
tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/
- 重命名文件夹名称(可选),注意后面的配置文件也需要根据该名称进行修改。
cd /opt/module
mv kafka_2.12-3.0.0 kafka
- 修改
/opt/module/kafka/config/server.properties
配置文件中最基础的参数配置:第一个是broker节点ID,第二个是topic数据存储路径。
vim server.propertiesbroker.id=0
log.dirs=/opt/module/kafka/datas
- 修改环境变量。
sudo vim /etc/profile.d/my_env.sh#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin
- 使用
source
命令刷新环境变量。
source /etc/profile
启动Kafka集群
- 启动ZooKeeper。在先前的博客中已介绍过ZooKeeper组件集群的搭建配置方式,并自定义了ZooKeepr集群启动脚本。所以本文直接使用该集群启动脚本
zk.sh
启动ZooKeeper。其中hadoop102 103 104
为三个broker节点的域名。
[hadoop@hadoop102 bin]$ cat zk
#!/bin/bashcase $1 in
"start"){for host in hadoop102 hadoop103 hadoop104doecho ------------ zookeeper $host 启动 ---------------ssh $host "/opt/module/zookeeper-3.5.9/bin/zkServer.sh start"done
}
;;
"stop"){for host in hadoop102 hadoop103 hadoop104doecho ------------ zookeeper $host 停止 --------------- ssh $host "/opt/module/zookeeper-3.5.9/bin/zkServer.sh stop"done
}
;;
"status"){for host in hadoop102 hadoop103 hadoop104doecho ------------ zookeeper $host 状态 --------------- ssh $host "/opt/module/zookeeper-3.5.9/bin/zkServer.sh status"done}
;;
*) echo Not exist the instruction
;;
esac
[hadoop@hadoop102 bin]$ ./zk start
- 启动Kafka集群。本文也针对Kafka集群定义了集群启动与停止Shell脚本,所以直接使用该脚本
kf.sh
启动Kafka集群即可。注意:必须先启动ZooKeeper再启动Kafka集群;在停止集群运行的时候,需要先停止Kafka集群,再停止ZooKeeper服务。
[hadoop@hadoop102 bin]$ cat kf
#!/bin/bashcase $1 in
"start")for i in hadoop102 hadoop103 hadoop104doecho "-- start $i kafka --"ssh $i "/opt/module/kafka/bin/kafka-server-start.sh -daemon /opt/module/kafka/config/server.properties"done
;;
"stop")for i in hadoop102 hadoop103 hadoop104doecho "-- stop $i kafka --"ssh $i "/opt/module/kafka/bin/kafka-server-stop.sh"done
;;
esac
[hadoop@hadoop102 bin]$ ./kf start