zookeeper集群+kafka集群:

kafka3.0之前依赖于zookeeper。
zookeeper开源,分布式的架构。提供协调服务(Apache项目)
基于观察者模式涉及的分布式服务管理架构。
存储和管理数据。分布式节点上的服务接受观察者的注册。一旦分布式节点上的数据发生变化,由zookeeper开负责通知分布式节点上的服务。

zookeeper:分别为领导者(leader),追随者 (follower)组成的集群
1、只要有一半以上的集群存活,zookeeper集群就可以正常工作。适用于安装奇数台的服务集群
2、全局数据一致,每个节点都保存相同的数据。维护监控服务的数据一致。
3、数据更新的原子性,要么成功,要么失败
4、实时性,只要有你变化,就立刻同步。

zookeeper的应用场景

1、统一命名服务,在分布式的环境下,对所有的应用和服务进行统一命名。
2、统一配置管理,配置文件同步,kafka的配置文件被修改,可以快速同步到其他节点。
3、统一集群管理,实时掌握所有节点的状态
4、服务动态上下线
5、负载均衡,把访问的服务器的数据,发送到访问最少的服务器处理客户端的请求。

领导者和追随者的选举机制

三台服务器 A B C 
A 先启动,发起第一次选举,投票投给自己,只有一票,A的状态是looking
B 启动,再发起一次选举,A和B分别投主机一票,交换选票信息,myid-A发现myid-B的myid比A大,A的这一票转而投给B
            A 0 B 2 没有半数以上结果,A B会进入looking
C 启动 MYID c的myid最大 A和B都会把票投给C A 0 B 0 C 3,C的状态变为leader,A和B变成follower
此时结构已确定,后续加的服务器都是追随者。

只有两种情况会开启选举机制:

1、初始化的情况会产生选举
2、服务器之间和leader丢失了连接状态
若leader已经存在,建立连接即可
若leader不存在,leader不存在。
则重新选举
1、myid大的胜出
2、EPOCH大的,自己胜出
3、EPOCH相同,事务ID大的胜出。
注:EPOCH 每个eader任期的代号,没有leader,大家的逻辑地址相同,每投完成一次之后,数据递增。
事务id,表示服务器的每一次变更,没变更一次事务iD变化一次。
服务器ID,zookeeper集群当中,每个机器都有一个ID,每台机器不重复,myid保持一致。

实验

zookeeper+kafka(2.7.0)
192.168.10.100    zookeeper+kafka
192.168.10.101    zookeeper+kafka
192.168.10.102    zookeeper+kafka

安装zookeeper

yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel
tar -xf apache-zookeeper-3.5.7-bin.tar.gz
mv apache-zookeeper-3.5.7-bin zookeeper
cd zookeeper/conf/
cp zoo_sample.cfg zoo.cfgvim zoo.cfg
*****************************************************************************************2
tickTime=2000
#服务器与客户端之间心跳时间,2秒检测一次服务器和客户端之间的通信
6
initLimit=10
#领导者和追随者之间,初始连接时容忍的时间 10*2S 20S
10
syncLimit=5
同步超时时间,领导者和追随者之间,同步通信超时的时间,5*2=10s,leader会认为follower丢失,移除集群。
15
dataDir=/opt/zookeeper/data
#保存数据的目录,需要单独创建
dataLogDir=/opt/zookeeper/logs
19
clientPort=2181
34
server.1=192.168.10.100:3188:3288
server.2=192.168.10.101:3188:3288
server.3=192.168.10.102:3188:3288
注
server.X=192.168.10.xxx:3188:3288
X:每个zookeeper集群的初始myid。
192.168.10.xxx 服务器的IP地址
3188 领导者和追随者之间交换信息的端口(内部通信的端口)
3288 一旦leader丢失响应,开启选举,3288就是用来执行选举时的服务器之问通信端口。2
tickTime=2000
#服务器与客户端之间心跳时间,2秒检测一次服务器和客户端之间的通信
6
initLimit=10
#领导者和追随者之间,初始连接时容忍的时间 10*2S 20S
10
syncLimit=5
同步超时时间,领导者和追随者之间,同步通信超时的时间,5*2=10s,leader会认为follower丢失,移除集群。
15
dataDir=/opt/zookeeper/data
#保存数据的目录,需要单独创建
dataLogDir=/opt/zookeeper/logs
19
clientPort=2181
34
server.1=192.168.10.100:3188:3288
server.2=192.168.10.101:3188:3288
server.3=192.168.10.102:3188:3288
注
server.X=192.168.10.xxx:3188:3288
X:每个zookeeper集群的初始myid。
192.168.10.xxx 服务器的IP地址
3188 领导者和追随者之间交换信息的端口(内部通信的端口)
3288 一旦leader丢失响应,开启选举,3288就是用来执行选举时的服务器之问通信端口。*****************************************************************************************
//在每个节点上创建数据目录和日志目录
mkdir /opt/zookeeper/data
mkdir /opt/zookeeper/logscd /opt/zookeeper/data/
//在每个节点的dataDir指定的目录下创建一个 myid 的文件,不同节点分配1、2、3
echo 1 > /opt/zookeeper/data/myid
echo 2 > /opt/zookeeper/data/myid
echo 3 > /opt/zookeeper/data/myid
//配置 Zookeeper 启动脚本
vim /etc/init.d/zookeeper
*****************************************************************************************#!/bin/bash
#chkconfig:2345 20 90
#description:Zookeeper Service Control Script
ZK_HOME='/opt/zookeeper'
case $1 in
start)echo "---------- zookeeper 启动 ------------"$ZK_HOME/bin/zkServer.sh start
;;
stop)echo "---------- zookeeper 停止 ------------"$ZK_HOME/bin/zkServer.sh stop
;;
restart)echo "---------- zookeeper 重启 ------------"$ZK_HOME/bin/zkServer.sh restart
;;
status)echo "---------- zookeeper 状态 ------------"$ZK_HOME/bin/zkServer.sh status
;;
*)echo "Usage: $0 {start|stop|restart|status}"
esac*****************************************************************************************//	设置开机自启
chmod +x /etc/init.d/zookeeper
chkconfig --add zookeeper//分别启动 Zookeeper
service zookeeper start//查看当前状态
service zookeeper status

消息队列: kafka

为什么要引入消息队列(MQ),处于服务端和客户端的中间件。在高并发环境下,同步请求来不及处理。来不及处理的请求会形成阻塞。
比方说数据库就会形成行锁或者表锁。请求线程满了,超标了,too many connection

消息队列的作用:异步处理请求,流量削峰,应用解耦。

耦合:组件与组件之间的的依赖性关系,修改其中一个,对其他组件影响不大,无需修改所有
解耦:A B C 只要通信保证,其他的修改不影响整个集群,每个组件可以的独立的扩展,修改,降低组件之间的依赖性。

可恢复性:系统当中的有一部分组件消失,不影响整个系统。在队列中,即使有一个处理消息的进程失败,一旦恢复,还可以重新加入队列当中,进行处理消息。
缓冲:可以控制和优化数据经过系统的时间和速度。解决生产消息和消费消息处理速度不一致的问题。
峰值的处理能力:消息队列在峰值的情况之下,能够顶住突发的访问压力。避免专门为了突发情况而对系统进行修改。

异步通信:允许用户把一个消息放入队列,但不立即处理,等用户想处理的时候在处理。


消息队列的模式:

点对点:一对一:消息的生产者发送一个消息到队列中,消费者从队列中提取消息,消费者提取后,队列中被提取的消息将会被移除。后续消费者不能再消费队列当中的消息。消息队列可以有多个消费者,但是一个消息,只能由一个消费者提取。
RABBITMQ

发布/订阅模式:一对多,又叫观察者模式。消费者提取数据之后,队列当中的消息不会被清除。
生产者发布一个消息到对象(主题),所有消费者都通过主题获取信息
主题:topic topic类似于一个数据流管道,生产者可以把消息发布到主题,消费者可以从主题中订阅数据。主题可以分区,每个分区都有自己的偏移量。
分区: partition 每个主题都可以分成多个分区。每个分区是数据的有序子集,分区可以允许kafka进行水平拓展,以处理大量数据。
消息在分区中可以按偏移量存储,消费者可以独立的读取每个分区的数据。
偏移量:是每个消息在分区中的唯一标识。消费者可以通过便宜量来跟踪获取已读或者未读消息的位置。也可以提交偏移量来记录已处理的消息。

消费类型:
第一种,begin 从头开始,获取所有
第二种,实时获取,我只消费,后续产生的消息
第三种,指定偏移量消费,代码实现

生产者: producer 生产者把数据发送kafka的主题当中,负责写入消息
消费者: 从主题当中读取数据,消费者可以说一个也可以是多个。每个消费者有一个唯一的ID,kafka通过消费者实现负载均衡和负载均衡和容错性
经纪人: Broker每个kafka节点都有一个Broker,每个Broker负责一台kafka服务器,id唯一,存储主题分区当中数据,处理生产和消费者的请求。维护元数据(zookeeper)

zookeeper:负责保存元数据,元数据就是topic的相关信息(发在哪台主机上,指定了多少分区,以及副本数,偏移量。
会自建一个主题:__consumer_offsets
3.0之后不依赖zookeeper的核心,元数据由kafka节点自己管理。

kafka的工作流程

至少一次语义:只要消费者进入,确保消息至少被消费一次
 

实验

tar -xf kafka 2.13-2.7.0.tgz
vim /etc/profile
****************************************************************************export KAFKA_HOME=/opt/kafka
export PATH=$PATH:$KAFKA_HOME/bin****************************************************************************
source /etc/profile
cd /opt/kafka/config
vim server.properties
*****************************************************************************************60
log.dirs=/var/log/kafka
#日志存放路径
zookeeper.connect=192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181-----------------------------------------------------------------------------------------broker.id=1、2、3
42
num.network.threads=3
#处理网络请求的线程数量,默认即可
46
num.io.threads=8
#处理磁盘的IO线程数量,一定要比硬盘数大。
50
socket.send.buffer.bytes=102400
#发送套接字的缓冲去大小
socket.receive.buffer.bytes=102400
#接受者的接受套接字缓冲区大小。
socket.request,max.bytes=104857600
#请求套接字的缓冲区大小。(字节)65
log.dirs=/var/log/kafka
#日志存放路径
70
num.partitions=1
#在此kafka服务器上创建topic,默认分区数。如果指定了,这个配置无效了
75
num.recoverythreads.per.data.dir=1
#用来恢复,回收,清理data下的数据的线程数量。kafka默认不允许删除主题。110
log.retention.hours=168
#生产者发布的数据文件在主题当中保存的时间。168小时=7天
130
zookeeper.connect=192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181*****************************************************************************************
vim /etc/init.d/kafka
chmod +x /etc/init.d/kafka
chkconfig --add kafka
service kafka start    #启动Kafka
netstat -antp | grep 9092    #Kafka的默认端口号9092,查看服务端口是否启动

创建主题

1、在kafka的bin日录下,是所有的kafka可执行命令文件
2、--zookeeper 指定的是zookeeper的地址和端口,保存kafka的元数据
3、--replication-factor 2 定义每个分区的副本数
4、partitions 3 指定主融的分区数
5、--topic test1 指定主题的名称
kafka-topics.sh --create --zookeeper IP地址:2181 --replication-factor 副本数 --partitions 分区数 --topic 主题名
--replication-factor 副本数  
--partitions 分区数
--topic 主题名  例:
kafka-topics.sh --create --zookeeper 192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181 --replication-factor 2 --partitions 3 --topic test1

查看主题

查看所有主题

查看所有的topic
kafka-topics.sh --describe --zookeeper IP地址:2181
例
kafka-topics.sh --describe --zookeeper 192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181

查看指定主题

查看指定主题
kafka-topics.sh --describe --zookeeper IP地址:2181 --topic 主题名
例
kafka-topics.sh --describe --zookeeper 192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181 --topic test2

查看内容声明

Partition:分区编号	Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。
在上述输出中,领导者的编号分别为 3、1、3。Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。
在上述输出中,Replica 3、1、2 分别对应不同的 Kafka broker。Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。
ISR 3、1分别表示与领导者同步的副本。
vim /etc/hosts
*******************************************************************************************192.168.10.100 test1
192.168.10.101 test2
192.168.10.102 test3*******************************************************************************************

生产者:

kafka-console-producer.sh --broker-list IP地址:9092 --topic 主题名
例
kafka-console-producer.sh --broker-list 192.168.10.100:9092,192.168.10.101:9092,192.168.10.102:9092 --topic test1

消费者:

同步所有的
kafka-console-consumer.sh --bootstrap-server IP地址:9092 --topic 主题名 --from-beginning
例:
kafka-console-consumer.sh --bootstrap-server 192.168.10.100:9092,192.168.10.101:9092,192.168.10.102:9092 --topic test1 --from-beginning实时同步
kafka-console-consumer.sh --bootstrap-server IP地址:9092 --topic 主题名
例:
kafka-console-consumer.sh --bootstrap-server 192.168.10.100:9092,192.168.10.101:9092,192.168.10.102:9092 --topic test1

修改分区数

格式
kafka-topics.sh --zookeeper ip地址:2181 --alter --topic 主题名 --partitions 分区数
例
kafka-topics.sh --zookeeper 192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181 --topic test1 --partitions 3

删除主题

格式
kafka-topics.sh --delete --zookeeper ip地址:2181 --topic 主题名
例:
kafka-topics.sh --delete --zookeeper 192.168.10.100:2181,192.168.10.101:2181,192.168.10.102:2181 --topic test1

总结:

1、zookeeper;主要是分布式,观察者模式,统一各个节点的数据。
在kafka当中,收集保存kafka的元数据
2、kafka消息队列订阅发布模式,速度快,吞吐量高,占用系统资源多
    RABBIT MQ (实现rebbit MQ 消息队列)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/205445.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

7、信息收集(2)

文章目录 一、指纹识别1、Nmap工具2、Wafw00f工具 二、使用Maltego进行情报收集 一、指纹识别 1、Nmap工具 命令一&#xff1a;nmap -sS -sV <ip>&#xff0c;使用TCP SYN的方式&#xff0c;扫描目标主机上常规端口运行的服务版本。 -sS&#xff1a;指定使用TCP SYN的方…

k8s中批量处理Pod应用的Job和CronJob控制器介绍

目录 一.Job控制器 1.简介 2.Jobs较完整解释 3.示例演示 4.注意&#xff1a;如上例的话&#xff0c;执行“kubectl delete -f myJob.yaml”就可以将job删掉 二.CronJob&#xff08;简写为cj&#xff09; 1.简介 2.CronJob较完整解释 3.案例演示 4.如上例的话&#xf…

C#,《小白学程序》第三课:类class,类的数组及类数组的排序

类class把数值与功能巧妙的进行了结合&#xff0c;是编程技术的主要进步。 下面的程序你可以确立 分数 与 姓名 之间关系&#xff0c;并排序。 1 文本格式 /// <summary> /// 同学信息类 /// </summary> public class Classmate { /// <summary> /…

注册Zoho Mail邮箱:优势与使用体验

如何注册Zoho Mail邮箱&#xff1f;要注册Zoho Mail邮箱&#xff0c;首先打开浏览器&#xff0c;访问Zoho Mail官网&#xff0c;点击页面右上角的“创建帐户”按钮。接下来&#xff0c;按照提示输入你的姓名、生日和性别&#xff0c;以及一个有效的手机号码或电子邮件地址。然后…

20231122给RK3399的挖掘机开发板适配Android12

20231122给RK3399的挖掘机开发板适配Android12 2023/11/22 9:30 主要步骤&#xff1a; rootrootrootroot-X99-Turbo:~$ tar --use-compress-programpigz -xvpf rk356x_android12_220722.tgz rootrootrootroot-X99-Turbo:~$ cd rk_android12_220722/ rootrootrootroot-X99-Tur…

【学习记录】从0开始的Linux学习之旅——驱动模块编译与加载

一、概述 Linux操作系统通常是基于Linux内核&#xff0c;并结合GNU项目中的工具和应用程序而成。Linux操作系统支持多用户、多任务和多线程&#xff0c;具有强大的网络功能和良好的兼容性。本文主要讲述如何编译及加载linux驱动模块。 二、概念及原理 应用程序通过系统调用与内…

(二)基于高尔夫优化算法GOA求解无人机三维路径规划研究(MATLAB)

一、无人机模型简介&#xff1a; 单个无人机三维路径规划问题及其建模_IT猿手的博客-CSDN博客 参考文献&#xff1a; [1]胡观凯,钟建华,李永正,黎万洪.基于IPSO-GA算法的无人机三维路径规划[J].现代电子技术,2023,46(07):115-120 二、高尔夫优化算法GOA简介 高尔夫优化算法…

PHP 双门双向门禁控制板实时监控源码

本示例使用设备&#xff1a; 实时网络双门双向门禁控制板可二次编程控制网络继电器远程开关-淘宝网 (taobao.com) <?PHPheader("content-type:text/html;charsetGBK");$ThisIpget_local_ip(); //获取电脑IP地址 $server udp://.$ThisIp.:39192; $sock…

【JavaEE初阶】 HTTP响应报文

文章目录 &#x1f332;序言&#x1f38d;200 OK&#x1f340;404 Not Found&#x1f384;403 Forbidden&#x1f334;405 Method Not Allowed&#x1f38b;500 Internal Server Error&#x1f333;504 Gateway Timeout&#x1f332;302 Move temporarily&#x1f38d;301 Move…

构建智能医患沟通:陪诊小程序开发实战

在医疗科技的浪潮中&#xff0c;陪诊小程序的开发成为改善医患沟通的创新途径之一。本文将介绍如何使用Node.js和Express框架构建一个简单而强大的陪诊小程序&#xff0c;实现患者导诊和医生咨询功能。 1. 安装Node.js和Express 首先确保已安装Node.js&#xff0c;然后使用以…

【机器学习 | 可视化】回归可视化方案

&#x1f935;‍♂️ 个人主页: AI_magician &#x1f4e1;主页地址&#xff1a; 作者简介&#xff1a;CSDN内容合伙人&#xff0c;全栈领域优质创作者。 &#x1f468;‍&#x1f4bb;景愿&#xff1a;旨在于能和更多的热爱计算机的伙伴一起成长&#xff01;&#xff01;&…

【微服务】SaaS云智慧工地管理平台源码

智慧工地系统是一种利用人工智能和物联网技术来监测和管理建筑工地的系统。它可以通过感知设备、数据处理和分析、智能控制等技术手段&#xff0c;实现对工地施工、设备状态、人员安全等方面的实时监控和管理。 一、智慧工地让工程施工智能化 1、内容全面&#xff0c;多维度数…

Docker快速搭建RTMP服务(tiangolo/nginx-rtmp:Docker + Nginx+ nginx-rtmp-module)

Linux Docker快速搭建多媒体/视频流的 RTMP 服务 第一步 安装Docker 点击这里查看 第二步 拉取并运行镜像 tiangolo/nginx-rtmp/ docker pull tiangolo/nginx-rtmp docker run -d -p 1935:1935 --name nginx-rtmp tiangolo/nginx-rtmpOBS客户端测试 OBS客户端设置直播的推…

Go——二、变量和数据类型

Go 一、Go语言中的变量和常量1、Go语言中变量的声明2、如何定义变量方式1&#xff1a;方式2&#xff1a;带类型方式3&#xff1a;类型推导方式定义变量方式4&#xff1a;声明多个变量总结 3、如何定义常量4、Const常量结合iota的使用 二、Golang的数据类型1、概述2、整型2.1 类…

LeetCode Hot100 124.二叉树中的最大路径和

题目&#xff1a; 二叉树中的 路径 被定义为一条节点序列&#xff0c;序列中每对相邻节点之间都存在一条边。同一个节点在一条路径序列中 至多出现一次 。该路径 至少包含一个 节点&#xff0c;且不一定经过根节点。 路径和 是路径中各节点值的总和。 给你一个二叉树的根节点…

Linux基本指令总结(二)

1.man指令&#xff08;重要&#xff09; Linux的命令有很多参数&#xff0c;我们不可能全记住&#xff0c;我们可以通过查看联机手册获取帮助。访问Linux手册页的命令是 man 语法: man [选项] 命令 man指令就相当于一个精通linux的专家&#xff0c;你要查询的指令或者函数&…

linux的netstat命令和ss命令

1. 网络状态 State状态LISTENING监听中&#xff0c;服务端需要打开一个socket进行监听&#xff0c;侦听来自远方TCP端口的连接请求ESTABLISHED已连接&#xff0c;代表一个打开的连接&#xff0c;双方可以进行或已经在数据交互了SYN_SENT客户端通过应用程序调用connect发送一个…

【开源】基于Vue和SpringBoot的企业项目合同信息系统

项目编号&#xff1a; S 046 &#xff0c;文末获取源码。 \color{red}{项目编号&#xff1a;S046&#xff0c;文末获取源码。} 项目编号&#xff1a;S046&#xff0c;文末获取源码。 目录 一、摘要1.1 项目介绍1.2 项目录屏 二、功能模块2.1 数据中心模块2.2 合同审批模块2.3 合…

运维 | 四层和七层负载均衡介绍

关注: CodingTechWork 负载均衡 负载均衡介绍 概念 负载均衡是建立在现有的网络结构之上&#xff0c;提供一种廉价且透明的方式进行网络设备和服务器带宽的扩展&#xff0c;从而增加吞吐量&#xff0c;加强应用服务的数据处理能力&#xff0c;有效提高网络的灵活性和可用性。…

找不到 sun.misc.BASE64Decoder ,sun.misc.BASE64Encoder 类

找不到 sun.misc.BASE64Decoder &#xff0c;sun.misc.BASE64Encoder 类 1. 现象 idea 引用报错 找不到对应的包 import sun.misc.BASE64Decoder; import sun.misc.BASE64Encoder;2. 原因 因为sun.misc.BASE64Decoder和sun.misc.BASE64Encoder是Java的内部API&#xff0c;通…