zookeeper集群+kaafka集群

kafka3.0之前依赖于zookeeper

zookeeper开源,分布式的架构,提供协调服务(Apache项目)

基于观察者模式涉及的分布式服务管理架构

存储和管理数据,分布式节点上的服务接受观察者的注册,一旦分布式节点上的数据发生变化,由zookeeper负责通知分布式节点上的服务

zookeeper特点

1、分为领导者 追随者 leader follow组成的集群

2、只要有一半以上的集群存活,zookeeper集群就可以正常工作,适用于安装奇数台的服务集群

3、全局数据一致,每一个zookeeper每个节点都保存相同的数据,维护监控服务的数据一致

4、数据更新的原子性,要么都成功,要么都失败

5、实时性,只要有变化,立刻同步(特性)

zookeeper的应用场景

1、统一命名服务,在分布式的环境下,对所有的应用和服务进行统一命名

2、统一配置管理,配置文件同步,kafka的配置文件被修改,可以快速同步到其他节点

3、统一集群管理,实时掌握所有节点的状态

4、服务器动态上下线

5、负载均衡,把访问的服务器的数据,发送到访问最少得服务器处理客户端的请求

zookeeper的选取机制(领导者和追随者)

三台服务器:A B C

A 先启动,发起第一次选举,投票投给自己,只有一票,不满半数,A的状态是looking

B 启动,在发起一次选举,A和B分别投自己一票,交换选票信息,myid,A 发现B的myid比A大,A的这一票转而投给B

A 0 B 2 没有半数以上结果,A B会进入looking B有可能成为leader

C启动 myid c的myid最大,A和B会把票投给C A 0 B 0 C 3

C的状态变为leader ,A和B变成follower

只要leader确定,后续的服务器都是追随者

只有两种情况会开启选举机制

1、初始化的情况会产生选举

2、服务器之间和leader丢失了连接状态

leader已经存在,建立连接即可

leader不存在,leader不存在

1、服务器ID大的胜出

2、EPOCH大,直接胜出

3、EPOCH相同,事务ID大的胜出

EPOCH每个leader任期的代号,如果没有leader,所有的逻辑地位相同,每投完一次之后,数据是递增

事务ID,表示服务器的每一次变更,每变更一次事务ID变化一次

服务器ID:zookeeper集群当中的机器都有一个ID,每台机器不重复,和myid保持一致

zookeeper+kafka(2.7.0)集群部署
zookeeper集群

20.0.0.10 zookeeper+kafka

20.0.0.11 zookeeper+kafka

20.0.0.12 zookeeper+kafka

所有服务器都是2核4G

#所有服务器#关闭防火墙和安全机制
#把zookeeper和kafka源码包拖到opt目录下#升级java环境
yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-develjava -version#解压源码包
cd /opt
tar -xf apache-zookeeper-3.5.7-bin.tar.gz 
mv apache-zookeeper-3.5.7-bin zookeeper
cd zookeeper/confcp zoo_sample.cfg zoo.cfg
vim zoo.cfgtickTime=2000
#服务器与客户端之间心跳时间,2秒检测一次服务器和客户端之间的通信
initLimit=10
#领导者和追随者之间,初始连接时能够容忍的超时时间,10*2s 20s
syncLimit=5
#同步超时时间,领导者和追随者之间,同步通信超时的时间,5*2s,leader会认为follower丢失,移除集群
dataDIr=/opt/zookeeper/data
#保存数据的目录,需要单独创建
dataLogDir=/opt/zookeeper/logs
#保存日志的目录,需要单独创建
clientPort=2181
#端口号
server.1=20.0.0.10:3188:3288
server.2=20.0.0.11:3188:3288
server.3=20.0.0.12:3188:3288
#server.1=20.0.0.10:3188:3288
#1 每个zookeeper集群的初始myid
# 20.0.0.10	服务器的IP地址
# 3188 领导者和追随者之间交换信息的端口(内部通信的端口)
# 3288 一旦leader丢失响应,开启选举,3288就是用来选举时的服务之间通信端口cd /opt/zookeeper
mkdir data logs#给每台服务器分配myid
cd /data
echo 1 > myidcd /data
echo 2 > myidcd /data
echo 3 > myid#创建启动脚本
vim /etc/init.d/zookeeper#!/bin/bash
#chkconfig:2345 20 90
#description:Zookeeper Service Control Script
ZK_HOME='/opt/zookeeper'
case $1 in
start)echo "---------- zookeeper 启动 ------------"$ZK_HOME/bin/zkServer.sh start
;;
stop)echo "---------- zookeeper 停止 ------------"$ZK_HOME/bin/zkServer.sh stop
;;
restart)echo "---------- zookeeper 重启 ------------"$ZK_HOME/bin/zkServer.sh restart
;;
status)echo "---------- zookeeper 状态 ------------"$ZK_HOME/bin/zkServer.sh status
;;
*)echo "Usage: $0 {start|stop|restart|status}"
esac#给脚本权限
chmod +x /etc/init.d/zookeeper
chkconfig --add zookeeper#重启服务
service zookeeper start
#查看状态(查看谁是主)
service zookeeper status
消息队列kafka

为什么要引入消息队列(MQ),他也是一个中间件,在高并发环境下,同步请求来不及处理,来不及处理的请求会形成阻塞

比方说数据库就会形成行锁或者表锁,请求线程满了,超标了,too many connection 整个系统雪崩

消息队列的作用

1、异步处理请求

异步处理的流程图

2、流量削峰,应用解耦

解耦:只要通信保证,其他的修改不影响珍格格集群,每个组件可以的独立的扩展,修改,降低组件之间的依赖性

依赖点就是接口约束,通过不同的端口,保证集群通信

耦合:在软件系统中,修改一个组件需要修改所有其他组件,高度耦合

低度耦合:修改其中一个对其他组件影响不大,无需修改所有

3、可恢复性:系统当中的有一部分组件消失,不影响整个系统,也就是说在消息队列当中,即使有一个处理消息的进程失败,一旦恢复还可以重启加入队列当中,继续处理消息

4、缓中:可以控制和优化数据经过系统的时间和速度,解决生产消息和消费消息处理速度不一致的问题

5、峰值的处理能力:消息队列在峰值情况下,能够顶住突发的访问压力,避免专门为了突发情况而对系统进行修改

6、异步通信:允许用户把一个消息放入队列,但是不立刻处理,等用户想处理的时候在处理

消息队列的模式

1、点对点 一对一:消息的生产者发送消息队列中,消费者从队列中提取消息,消费者提取完之后,队列中被提取的消息将会被移除,后续消费者不能再消费队列当中的消息,消息队列可以有多个消费者,但是一个消息,只能由一个消费者提取

RABBITMQ

2、发布/订阅模式:一对多,又叫做观察者模式,消费者提取数据之后,队列当中的消息不会被清除

生产者发布一个消息到主题,所有消费者都是通过主题获取消息

消息队列的重要组件

1、主题:topic topic类似一个数据流的管道,生产者把消息发布到主题,消费者从那个主题当中订阅数据,主题可以分区,每个分区都有自己的偏移量

2、分区:partition 每个主题都可以多个分区,每个分区是数据的有序子集,分区可以允许kafka进行水平拓展,以处理大量数据,消息在分钟按照偏移量存储,消费者可以独立读取每个分区的数据

3、偏移量:是每个消息在分区中唯一的标识,消费者可以通过偏移量来跟踪获取已读或者未读消息的位置,也可以提交偏移量来记录已处理的信息

4、生产者:producer生产者把数据发送kafka的主题当中,负责写入消息

5、消费者:从主题当中读取数据,消费者可以是一个也可以十多个,每个消费者有一个唯一的消费者组ID,kafka通过消费者实现负载均衡和容错性

6、经纪人:Broker 每个kafka节点都有一个Broker,每个负责一台kafka服务器,id唯一,存储主题分区当中数据,处理生产和消费者的请求

维护元数据(zookeeper)

zookeeper:zookeeper负责保存元数据,元数据就是topic的相关信息(发布在哪台主机上,指定了多少分区,以及副本数,偏移量)

zookeeper自建一个主题:__consumer_offsets

3.0之后不依赖zookeeper的核心元数据由kafka节点自己管理

第一种,begin从头开始,获取所有

第二种,实时获取,我只消费,后续产生的消息

第三种,指定偏移量消费,代码实现

kafka的工作流程

1、生产者发送数据到主题(topic)中

2、可以分区,每个分区都有自己的偏移量

3、消费者从主题当中读取数据

工作流程图

生产者写入topic的数据时持久化的,默认是7小时

至少一次语义:只要消费者进入,确保消息至少被消费一次

kafka实验部署
#解压kafka的源码包
tar -xf kafkamv kafkavim /etc/profile
export KAFKA_HOME=/opt/kafka
export PATH=$PATH:$KAFKA_HOME/bin#10服务器
#修改kafka的配置文件
cd /opt/kafka
cd /config
vim server.properties#21行
broker.id=1
#全局唯一编号,不可以重复
#28行
#如果全局遍布改变,不需要改
#42行
num.network.threads=3
#处理网络请求的线程数量,默认即可
#46行
num.io.threads=8
#处理磁盘的IO线程数量,一定要比硬盘数大
#50行
socket.receive
#发送套接字的缓冲区大小
54行#接受者的接受套接字缓冲区大小(套接字就是端口)
58行#请求套接字的缓冲区大小
#65行
log.dirs=/var/log/kafka
#日志路径
#70行
num.partitions=1
#在此kafka服务器上创建topic,默认分区数,如果指定了,这个配置无效了
#75行
num.recovery.threads.per.data.dir=1
#用来恢复,回收,清理data下的数据的线程数量,kafka的默认不允许删除主题的
#110行
log.retention.hours=168
#生产者发布的数据文件在主题当中保存的时间,168小时,默认是7天
#130行
zookeeper.connect=20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181
#指定zookeeper集群#11服务器
vim server.properties#21行
broker.id=2
#65行
log.dirs=/var/log/kafka
#日志路径
#130行
zookeeper.connect=20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181
#指定zookeeper集群#12服务器
vim server.properties#21行
broker.id=3
#65行
log.dirs=/var/log/kafka
#日志路径
#130行
zookeeper.connect=20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181
#指定zookeeper集群#kafka的启动脚本
vim /etc/init.d/kafka#!/bin/bash
#chkconfig:2345 22 88
#description:Kafka Service Control Script
KAFKA_HOME='/opt/kafka'
case $1 in
start)echo "---------- Kafka 启动 ------------"${KAFKA_HOME}/bin/kafka-server-start.sh -daemon ${KAFKA_HOME}/config/server.properties
;;
stop)echo "---------- Kafka 停止 ------------"${KAFKA_HOME}/bin/kafka-server-stop.sh
;;
restart)$0 stop$0 start
;;
status)echo "---------- Kafka 状态 ------------"count=$(ps -ef | grep kafka | egrep -cv "grep|$$")if [ "$count" -eq 0 ];thenecho "kafka is not running"elseecho "kafka is running"fi
;;
*)echo "Usage: $0 {start|stop|restart|status}"
esac#给权限
chmod +x /etc/init.d/kafka
#添加系统当中
chkconfig --add kafka#启动kafka
service kafka start 
#查看kafka端口
netstat -antp | grep 9092
kafka创建主题
#所有可执行kafka的命令文件都要在bin目录下执行
cd /opt/kafka/bin#创建主题
kafka-topics.sh --create --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181 --replication-factor 2 --partitions 3 --topic xiaobu 
#--zookeeper  指定的是zookeeper的地址和端口,保存kafka的元数据
#--replication-factor 2 定义每个分区的副本数
#--partitions 3  指定主题的分区数
# --topic xiaobu 指定主题名可以自定义#查看主题
kafka-topics.sh --describe --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181#查看指定的主题详细信息
kafka-topics.sh --describe --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181 --topic xiaobu#Partition:分区编号	
#Leader:每个分区都有一个领导者(Leader),领导者负责处理分区的读写操作。
#在上述输出中,领导者的编号分别为 3、1、3。
#Replicas:每个分区可以有多个副本(Replicas),用于提供冗余和容错性。
#在上述输出中,Replica 3、1、2 分别对应不同的 Kafka broker。
#Isr:ISR(In-Sync Replicas)表示当前与领导者保持同步的副本。
#ISR 3、1分别表示与领导者同步的副本。#做映射
vim /etc/hosts
20.0.0.10 test1
20.0.0.11 test2
20.0.0.12 test3随便选择一个主机发布消息
kafka-console-producer.sh --broker-list 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 --topic xiaobu订阅信息(从头开始)
kafka-console-consumer.sh --bootstrap-server 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 --topic xiaobu --from-beginning 订阅信息(实时更新)
kafka-console-consumer.sh --bootstrap-server 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 --topic xiaobu在11上创建主题
kafka-topics.sh --create --zookeeper 20.0.0.11:2181 --replication-factor 1 --partitions 1 --topic xiaobu1
在10上订阅信息
kafka-console-consumer.sh --bootstrap-server 20.0.0.11:9092 --topic xiaobu1
在11上创建主题
kafka-topics.sh --create --zookeeper 20.0.0.12:2181 --replication-factor 1 --partitions 1 --topic xiaobu2
在10上订阅信息
kafka-console-consumer.sh --bootstrap-server 20.0.0.12:9092 --topic xiaobu2
修改分区数
kafka-topics.sh  --zookeeper 20.0.0.11:2181 --alter -topic xiaobu1 --partitions 3
#查看指定的主题详细信息
kafka-topics.sh --describe --zookeeper 20.0.0.11:2181 --topic xiaobu1

删除主题

kafka-topics.sh --delete --zookeeper 20.0.0.12:2181 --topic xiaobu1
#此时命令执行后,只是打赏打上删除的标记,并没有完全删除。还是保存在元数据当中
查看zookeeper保存信息
cd zookeeper/bin
./zkCli.sh -server 20.0.0.11:2181
#-server 20.0.0.11:2181:指定需要登录的IP地址
ls /brokes/topics
#保存Kafka的元数据信息的位置。
#你无法对保存的元数据进行任何信息,只可以查询
get /brokes/topics
#查看元数据信息
kafka3.0创建主题
#所有可执行kafka的命令文件都要在bin目录下执行
cd /opt/kafka/bin#创建主题
kafka-topics.sh --create --bootstrap-server 20.0.0.13:9092,20.0.0.40:9092,20.0.0.41:9092 --replication-factor 2 --partitions 3 --topic test1#查看主题
kafka-topics.sh --list --bootstrap-server 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 
指定查看主题
kafka-topics.sh --list --bootstrap-server 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 test随便选择一个主机发布消息
kafka-console-producer.sh --broker-list 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 test
kafka+elk集群

#两个es主机
#把filebeat的源码包拖到opt目录下
解压
cd filebeat
yum -y insatll nginx
systemctl restart nginx 
vim /var/share/nginx/html/index.htmlvim filebeat.yml
- type: logenabled: truepaths:- /var/log/nginx/access.log- /var/log/nginx/error.logtags: ["nginx"]fields:service_name: 20.0.0.10_nginxlog_type: nginxfrom: 20.0.0.10
output.kafka:enabled: truehosts: ["20.0.0.40:9092,20.0.0.41:9092,20.0.0.42:9092"]topic: "nginx"运行filebeatnohup ./filebeat -e -c filebeat.yml > filebeat.out &cd /opt/kafka.conf
input {kafka {bootstrap_servers => "20.0.0.40:9092,20.0.0.41:9092,20.0.0.42:9092"topics => "nginx"type => "nginx_kafka"codec => "json"解析json格式的代码auto_offset_reset => "earliest"从头拉取,latestdecorate_event => true传递给es实例中的信息包含kafka的属性数据}}output{if "nginx" in [tags] {elasticsearch {hosts => ["20.0.0.10:9200","20.0.0.11:9200"]index => "%{[fields][service_name]}-%{YYYY.MM.dd}"}}}logstash -f kafka.conf --path.data /opt/nginx1去kafka上查看kafka-topic.sh --list --bootstrap-server 20.0.0.40:9092,20.0.0.41:9092,20.0.0.42:9092

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/207930.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【网络安全技术】消息认证技术

一、哈希函数 1.安全性质 1)抗第一原像攻击(Preimage Resistance) 给定哈希后的值,很难找到哈希前的原消息。这很好理解,需要哈希函数具有单向性。 一个简单的例子就是密码存储系统,用户登录服务器需要…

使用dirmap命令行时报错,提示缺少gevent模块

记得以前是可以的,可能是时间长了重装了系统,引起的。 修复方法。升级pip,然后重新下载安装gevent模块。 具体: 使用下面命令解决下载慢的问题。 pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple …

python中,or、not的用法

or的用法 在python中,or运算符是一个逻辑运算符,用于在多个条件中选择至少一个为真(True)的情况。 如果条件中的任意一个为真,整个表达式的结果就为真 如: 示例1: 检查两个数字中至少有一个正数 示例2: x True y …

使用系统ProgressBar实现三色进度条

使用系统ProgressBar实现如图三色进度条&#xff1a; //布局中<ProgressBarandroid:layout_width"0dp"android:layout_height"8dp"android:layout_marginLeft"16dp"app:layout_constraintBottom_toBottomOf"id/photo"app:layout_c…

Linux 权限管理

1 Linux 安全模型 AAA认证资源分派&#xff1a; 当用户登录时&#xff0c;系统会自动分配令牌 token&#xff0c;包括用户标识和组成员等等信息 1.1 用户 Linux 中每个用户是通过 User ID&#xff08;UID&#xff09;来唯一标识的。 1.2 用户组 Linux 中可以将一个或者多个…

OOM了?物理内存不够了?试试这个方法来提升内存容量,不花钱的

通过增加虚拟内存来提高内存使用 本文解决的实际问题&#xff1a; 当我们物理内存小的时候&#xff0c;会出现OOM&#xff0c;然后服务自动死掉的情况。因为物理内存大小是固定的&#xff0c;有没有其他好的办法来解决呢&#xff1f;这里我们可以适当调整Linux的虚拟内存来协作…

spring cloud gateway源码分析,一个请求进来的默认处理流程

1.前言 spring cloud gateway的基本组成和作用就不细赘述&#xff0c;此篇适合对此有一定了解的人阅读。 spring cloud gateway版本: Hoxton.SR1 spring cloud gateway的配置使用yml配置&#xff1a; server:port: 9527y#根据微服务名称进行动态路由的配置 spring:applicati…

【Amazon】通过代理连接的方式导入 AWS EKS集群至KubeSphere主容器平台

文章目录 一、设置主集群方式一&#xff1a;使用 Web 控制台方式二&#xff1a;使用 Kubectl命令 二、在主集群中设置代理服务地址方式一&#xff1a;使用 Web 控制台方式二&#xff1a;使用 Kubectl命令 三、登录控制台验证四、准备成员集群方式一&#xff1a;使用 Web 控制台…

linux上编写进度条

目录 一、预备的两个小知识1、缓冲区2、回车与换行 二、倒计时程序三、编写入门的进度条四、编写一个正式的五、模拟实现和下载速度相关的进度条 一、预备的两个小知识 1、缓冲区 首先认识一下缓冲区&#xff1a;先写一个.c文件如下&#xff1a; 我们执行一下这个程序时&…

如何在vs2019及以后版本(如vs2022)上添加 添加ActiveX控件中的MFC类

有时候我们在MFC项目开发过程中&#xff0c;需要用到一些微软已经提供的功能&#xff0c;如VC使用EXCEL功能&#xff0c;这时候我们就能直接通过VS2019到如EXCEL.EXE方式&#xff0c;生成对应的OLE头文件&#xff0c;然后直接使用功能&#xff0c;那么&#xff0c;我们上篇文章…

索尼PMW580视频帧EC碎片重组开启方法

索尼PMW580视频帧EC碎片重组开启方法 索尼PMW-580摄像机生成的MXF文件存在严重的碎片化&#xff0c;目前CHS零壹视频恢复程序MXF版、专业版、高级版已经支持重组结构体正常的碎片&#xff0c;同时也支持对于结构体破坏或者覆盖后仅存在音视频帧EC数据的重组&#xff0c;需要注…

次世代建模纹理贴图怎么做?

在线工具推荐&#xff1a; 三维数字孪生场景工具 - GLTF/GLB在线编辑器 - Three.js AI自动纹理化开发 - YOLO 虚幻合成数据生成器 - 3D模型在线转换 - 3D模型预览图生成服务 1、什么是次时代建模&#xff1f; "次世代建模"是一个术语&#xff0c;通常用来描述…

边缘数据中心和5G的融合彻底改变数据传输和物联网

伴随着数字化时代的飞速发展&#xff0c;边缘数据中心和5G技术的联袂崛起&#xff0c;正深刻塑造着人们对数据的创造、传输和处理方式。据Gartner公司的预测&#xff0c;到2025年&#xff0c;企业数据的三分之二将在边缘计算设施中涌现&#xff0c;而非传统的集中式数据中心。这…

抑郁症中西医治疗对比?

抑郁症是一种常见的心理障碍&#xff0c;治疗方法包括中医和西医两种。下面就抑郁症中西医治疗进行对比&#xff1a; 治疗方法&#xff1a;中医治疗抑郁症强调整体观念和辨证论治&#xff0c;通过调理身体各部分的功能&#xff0c;达到治疗抑郁症的目的。中医治疗抑郁症多采用天…

【数据结构】循环链表和双向链表

【循环链表】 (有头结点) pR1->next; R1->nextR2->next->next; free(R2->next); R2->nextp; 例&#xff1a;对于两个单循环链表a&#xff0c;b&#xff0c;将其连接起来&#xff0c;变成一个单循环链表 #include<stdio.h> #include<stdlib.h> …

【动态规划】LeetCode-62.不同路径

&#x1f388;算法那些事专栏说明&#xff1a;这是一个记录刷题日常的专栏&#xff0c;每个文章标题前都会写明这道题使用的算法。专栏每日计划至少更新1道题目&#xff0c;在这立下Flag&#x1f6a9; &#x1f3e0;个人主页&#xff1a;Jammingpro &#x1f4d5;专栏链接&…

数据结构:图文详解单链表的各种操作(头插法,尾插法,任意位置插入,删除节点,查询节点,求链表的长度,清空链表)

目录 一.什么是链表 二.链表的实现 节点的插入 头插法 尾插法 指定位置插入 节点的删除 删除第一次出现的关键字节点 删除所有关键字节点 节点的查找 链表的清空 链表的长度 前言&#xff1a;在上一篇文章中&#xff0c;我们认识了线性数据结构中的顺序表&#xff0…

K8s 中 Pod OOMKilled 原因

目录 Exit Code 137 解决方案 JVM 感知 cgroup 限制 使用 JDK9 的容器感知机制尝试 问题分析 容器内部感知 CGroup 资源限制 在 Java10 中&#xff0c;改进了容器集成 JVM 参数 MaxDirectMemorySize -XX:MaxDirectMemorySize 的默认值是什么&#xff1f; 其他获取 ma…

SQL server 2016安装

1、关系数据库的基本概念。 行&#xff1a;每行成为一条“记录”或“元组”&#xff0c;用于描述一个对象的信息。 列&#xff1a;每列称为一个“字段”或“属性”&#xff0c;用于描述对象的一个属性。 2、主键与外键。 主键&#xff1a;键&#xff0c;即关键字。主键由一个或…

【高效开发工具系列】驼峰下划线互转

&#x1f49d;&#x1f49d;&#x1f49d;欢迎来到我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学…