【K8S 二进制部署】部署Kurbernetes的网络组件、高可用集群、相关工具

目录

一、K8S的网络类型:

1、K8S中的通信模式:

1.1、、pod内部之间容器与容器之间的通信

1.2、同一个node节点之内,不同pod之间的通信方式:

1.3、不同node节点上的pod之间是如何通信的呢?

2、网络插件一:flannel

cni的插件:

flannel插件:

1、flannel支持的数据转发方式:

2、UDP的工作模式:

3、UDP工作流程图:

4、vxlan模式:

5、vxlan工作流程:

3、CNI 网络组件:

1、部署 flannel

4、网络插件二:calico插件

1、概念

2、核心组件:

3、calico的工作原理:

4、工作流程

5、ipip模式和BGP模式:

6、部署 Calico:

二、K8S网络总结:

三、部署coredns组件:

1、概念

2、部署 CoreDNS

2.1、node节点操作

四、新master节点部署

1、部署配置

五、部署nginx实现负载均衡

1、部署nginx

2、部署keepalived服务

3、测试

六、基于Web的Kubernetes用户界面--Dashboard

1、部署Dashboard:


一、K8S的网络类型:

1、K8S中的通信模式:

1.1、、pod内部之间容器与容器之间的通信

在同一个pod中的容器时共享资源和网络,使用同一个网络命名空间。可以直接通信

1.2、同一个node节点之内,不同pod之间的通信方式:

每个pod都有一个全局的真实IP地址,同一个node节点之间的不同pod可以直接的使用对方pod的IP地址进行通信。

pod1和pod2是通过docker0的网桥来进行通信的

1.3、不同node节点上的pod之间是如何通信的呢?

2、网络插件一:flannel

cni的插件:

cni是一个标准接口,用于容器运行时调用网络插件,负责设置容器的网络命名空间,IP地址,路由等等参数

flannel插件:

功能:让集群之中不同节点的docker容器,具有整个集群唯一的虚拟IP地址

overlay的网络类型,在底层物理网络的基础之上创建一个逻辑的网络层。是二层+三层的集合。二层是物理网络(数据链路层),三层是逻辑上的网络层

overlay网络也是一种网络虚拟化的技术

1、flannel支持的数据转发方式:

1、UDP模式:默认模式,应用转发,配置简单,但是性能最差

2、vxlan:基于内核转发,也是最常用的网络类型(小集群都用这个模式)

3、hosts-gw:性能最好,但是配置麻烦

2、UDP的工作模式:

基于应用转发,flannel提供路由表,flannel封装数据包,解封装。

UDP是基于应用层,用户态

在每个node节点上都会有一个flannel的虚拟网卡,负责封装和解封装

3、UDP工作流程图:

4、vxlan模式:

使用的是overlay的虚拟隧道通信技术。是二层+三层的模式,和UDP不同。

vxlan:flannel提供路由表,内核封装解封装

用的flannel1.1接口,(ifconfig看到flannel1.1用的就是vxlan)

flannel.1提供vni

5、vxlan工作流程:

类似于三层交换机:

flannel:是每个发向容器的数据包封装,vxlan通过vtep打包数据,然后由内核封装成数据包,再转发到目标node节点,到了目标节点由内核解封装,解封装之后发送到目标pod。

无论是flannel还是udp对性能是有一定影响的(小集群不在乎)

3、CNI 网络组件:

1、部署 flannel

两个node节点操作

在 node01 节点上操作

上传 cni-plugins-linux-amd64-v0.8.6.tgz 和 flannel.tar 到 /opt 目录中
cd /opt/
docker load -i flannel.tarmkdir -p /opt/cni/bin
tar zxvf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin在 master01 节点上操作
#上传 kube-flannel.yml 文件到 /opt/k8s 目录中,部署 CNI 网络
cd /opt/k8s
kubectl apply -f kube-flannel.ymlkubectl get pods -n kube-system

kubectl get nodes

4、网络插件二:calico插件

1、概念

calico:采用直接路由的方式。BGP路由。不需要需改报文,统一直接通过路由表转发,路由表会很复杂,运行维护的要求比较高

BGP模式的特点:交换路由信息的外部网关协议,可以连接不同的node节点,node节点可能不是同一网段,BGP实现可靠的、最佳的、动态的路由选择。自动识别相邻的路由设备。

calico不使用overlay重叠网络,也不需要交换,直接通过虚拟路由实现,每一台虚拟路由都通过BGP转发

2、核心组件:

felix:也是运行在主机上的一个个pod,一个进程。K8S daemonset的方式部署的pod

负责在宿主机上(node节点上)插入路由规则,维护calico所需的网络设备。网络接口管理,网络接口的监听,路由等等

daemonset:daemonset会在每个node节点部署相同的pod,后台的方式进行运行

BGP client:bird BGP的客户端,专门负责杂集群中分发路由规则的信息。每一个节点都会有一个BGP client

BGP协议广播的方式通知其他节点,分发路由的规则,实现网络互通

etcd:保存路由信息,负责整个网络元数据的一致性,保证整个网络状态的一致和准确

3、calico的工作原理:

路由转发,纯路由,没有交换

发现目标设备:BGP协议

通过路由表来维护每个pod之间的通信

一旦创建好pod之后,添加一个设备cali veth pair设备,是一个虚拟网卡设备

虚拟网卡:veth pair是一对设备,是一个虚拟的以太网设备。

一头连接在容器的网络命名空间(名称一般是eth0)

另一台连接在宿主机的网络命名空间 (名称一般是cali)

IP地址分配:veth pair连接容器的部分给容器分配一个IP地址,这个IP地址是一个唯一标识。宿主机也会被veth pair分配一个calico网络的内部IP地址。和其他节点上的容器进行通信

4、工作流程

veth设备,容器发出的IP地址通过veth pair设备到宿主机,宿主机根据路由规则的下一跳地址,发送到网关(目标宿主机节点),数据包到达目标宿主机,veth pair设备,目标宿主机也是根据路由规则,下一跳地址,转发到目标容器。

5、ipip模式和BGP模式:

ipip模式

会生成一个Tunnel,所有的数据包封装都在Tunnel内部打包。封装的是宿主机ip、容器内部的IP地址

ipip的隧道:在隧道进行数据包的封装

BGP模式:

通过为ip路由表的前缀来实现目标主机的可达性

对比ipip模式,BGP模式没有隧道,BGP模式下,pod的数据包直接通过网卡发送到目的地

6、部署 Calico:

在 master01 节点上操作

上传 calico.yaml 文件到 /opt/k8s 目录中,部署 CNI 网络

cd /opt/k8s
vim calico.yaml#修改里面定义 Pod 的网络(CALICO_IPV4POOL_CIDR),需与前面 kube-controller-manager 配置文件指定的 cluster-cidr 网段一样- name: CALICO_IPV4POOL_CIDRvalue: "10.244.0.0/16"        #Calico 默认使用的网段为 192.168.0.0/16

  

kubectl apply -f calico.yamlkubectl get pods -n kube-system

kubectl get nodes

二、K8S网络总结:

常用的K8S网络类型:

flannel:配置简单,功能简单,基于overlay叠加网络实现,在物理层的网络上再封装一层虚拟的网络层

vxlan是虚拟三层网络,用的最多的模式。是基于vni +ip进行转发,flannel提供路由表,内核封装和解封装。

UDP是默认模式(只管发),一般不用,host配置复杂一般也不用

由于封装和解封装的过程,对数据传输的性能会有影响,没有网络策略配置的能力。

默认网段是:10.244.0.0/16

calico:功能强大,基于路由表进行转发,没有封装和解封装的过程。具备网络策略的配置能力。但是路由表维护起来比较复杂

模式:ipip模式和BGP模式

简单的小集群使用flannel即可

日后有扩容、配置网络策略选择calico

三、部署coredns组件:

1、概念

可以为集群中的service资源创建一个域名和ip进行对应解析的关系

service是对外提供访问的一个地址,现在加入DNS机制之后,可以直接访问它的服务名,

2、部署 CoreDNS

2.1、node节点操作

在所有 node 节点上操作

#上传 coredns.tar 到 /opt 目录中cd /optdocker load -i coredns.tar在 master01 节点上操作#上传 coredns.yaml 文件到 /opt/k8s 目录中,部署 CoreDNScd /opt/k8skubectl apply -f coredns.yamlkubectl get pods -n kube-system

DNS 解析测试

kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous

四、新master节点部署

1、部署配置

要先初始化,将上面的准备操作准备

从 master01 节点上拷贝证书文件、各master组件的配置文件和服务管理文件到 master02 节点

scp -r /opt/etcd/ root@20.0.0.62:/opt/scp -r /opt/kubernetes/ root@20.0.0.62:/optscp -r /root/.kube root@20.0.0.62:/rootscp /usr/lib/systemd/system/{kube-apiserver,kube-controller-manager,kube-scheduler}.service root@20.0.0.62:/usr/lib/systemd/system/

修改配置文件kube-apiserver中的IP

vim /opt/kubernetes/cfg/kube-apiserverKUBE_APISERVER_OPTS="--logtostderr=true \
--v=4 \
--etcd-servers=https://192.168.233.91:2379,https://192.168.233.93:2379,https://192.168.233.94:2379 \
--bind-address=192.168.233.92 \ #修改
--secure-port=6443 \
--advertise-address=192.168.233.92 \ #修改

在 master02 节点上启动各服务并设置开机自启

systemctl start kube-apiserver.servicesystemctl enable kube-apiserver.servicesystemctl start kube-controller-manager.servicesystemctl enable kube-controller-manager.servicesystemctl start kube-scheduler.servicesystemctl enable kube-scheduler.service

查看node节点状态

ln -s /opt/kubernetes/bin/* /usr/local/bin/kubectl get nodeskubectl get nodes -o wide #-o=wide:输出额外信息;对于Pod,将输出Pod所在的Node名

此时在master02节点查到的node节点状态仅是从etcd查询到的信息,

而此时node节点实际上并未与master02节点建立通信连接,因此需要使用一个VIP把node节点与master节点都关联起来

五、部署nginx实现负载均衡

配置load balancer集群双机热备负载均衡(nginx实现负载均衡,keepalived实现双机热备)

1、部署nginx

配置nginx的官方在线yum源,配置本地nginx的yum源

cat > /etc/yum.repos.d/nginx.repo << 'EOF'
[nginx]
name=nginx repo
baseurl=http://nginx.org/packages/centos/7/$basearch/
gpgcheck=0
EOFyum install nginx -y

//修改nginx配置文件,配置四层反向代理负载均衡,指定k8s群集2台master的节点ip和6443端口

stream {log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';access_log  /var/log/nginx/k8s-access.log  main;upstream k8s-apiserver {server 20.0.0.61:6443;server 20.0.0.62:6443;}server {      listen 6443;proxy_pass k8s-apiserver;}}        #日志记录格式#$remote_addr: 客户端的 IP 地址。#$upstream_addr: 上游服务器的地址。#[$time_local]: 访问时间,使用本地时间。#$status: HTTP 响应状态码。#$upstream_bytes_sent: 从上游服务器发送到客户端的字节数。    

检查配置文件语法
nginx -t   启动nginx服务,查看已监听6443端口
systemctl start nginx
systemctl enable nginx
netstat -natp | grep nginx

2、部署keepalived服务

yum install keepalived -y

修改keepalived配置文件

vim /etc/keepalived/keepalived.conf

创建nginx状态检查脚本
vim /etc/nginx/check_nginx.sh#!/bin/bash                                                        
/usr/bin/curl -I http://localhost &>/dev/null    
if [ $? -ne 0 ];then                                            
#    /etc/init.d/keepalived stopsystemctl stop keepalived
fichmod +x /etc/nginx/check_nginx.sh

启动keepalived服务(一定要先启动了nginx服务,再启动keepalived服务)

systemctl start keepalivedsystemctl enable keepalivedip a

3、测试

主nginx

ip addr

关闭主nginx测试高可用:

VIP漂移到备nginx上

测试故障恢复:

先启动nginx,再启动keepalived

VIP漂移回来了

修改node节点上的bootstrap.kubeconfig,kubelet.kubeconfig配置文件为VIP

cd /opt/kubernetes/cfg/vim bootstrap.kubeconfigserver: https://20.0.0.100:6443vim kubelet.kubeconfigserver: https://20.0.0.100:6443vim kube-proxy.kubeconfigserver: https://20.0.0.100:6443

重启kubelet和kube-proxy服务

systemctl restart kubelet.servicesystemctl restart kube-proxy.service

在 lb01 上查看 nginx 和 node 、 master 节点的连接状态

netstat -natp | grep nginx

在 master01 节点上操作

测试创建pod

kubectl run nginx --image=nginx

查看Pod的状态信息

kubectl get pods

kubectl get pods -o wide

READY为1/1,表示这个Pod中有1个容器

kubectl exec -it nginx bash

这时在master01节点上查看nginx日志

kubectl logs nginx-dbddb74b8-nf9sk

六、基于Web的Kubernetes用户界面--Dashboard

1、部署Dashboard:

仪表盘,kubernetes的可视化界面。在这个可视化界面上,可以对集群进行管理

安装dashhoard

在 master01 节点上操作

#上传 recommended.yaml 文件到 /opt/k8s 目录中
cd /opt/k8skubectl apply -f recommended.yaml创建service account并绑定默认cluster-admin管理员集群角色
kubectl create serviceaccount dashboard-admin -n kube-systemkubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin#获取token值
kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

#使用输出的token登录Dashboard
https://20.0.0.63:30001

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/225959.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux下安装QQ

安装步骤&#xff1a; 1.进入官网&#xff1a;QQ Linux版-轻松做自己 2.选择版本&#xff1a;X86版下载dep 3安装qq 找到qq安装包位置&#xff0c;然后右击在终端打开输入安装命令&#xff0c;然后点击回车 sudo dpkg -i linuxqq_3.2.0-16736_amd64.deb 卸载qq 使用命令…

Windows/Linux环境登入mysql、mysqldump命令等多方式解决方案之简易记录

Windows/Linux环境登入mysql、mysqldump命令等多方式解决方案之简易记录 之前发布过Window方式,这次结合以上主题,完善下Linux相关登入方式过程,纯属做个记录,有需要的朋友可以做个学习参考。 一、Windows环境提示“‘mysql’ 不是内部或外部命令,也不是可运行的程序或批…

Flink项目实战篇 基于Flink的城市交通监控平台(下)

系列文章目录 Flink项目实战篇 基于Flink的城市交通监控平台&#xff08;上&#xff09; Flink项目实战篇 基于Flink的城市交通监控平台&#xff08;下&#xff09; 文章目录 系列文章目录4. 智能实时报警4.1 实时套牌分析4.2 实时危险驾驶分析4.3 出警分析4.4 违法车辆轨迹跟…

PO 发布SAP SProxy->外围系统 WebService

通信概览图 外围系统与PO、SAP的请求响应通信过程大致可以用下图描述 &#xff08;个人整理所得&#xff0c;可能有误&#xff0c;欢迎指正&#xff09; 1. 前期准备 1.1 外围系统提供WebService接口 以A系统的RFC发布WebService接口 RFC发布WebService接口 获取到WSDL地…

MATLAB遗传算法工具箱的三种使用方法

MATLAB中有三种调用遗传算法的方式&#xff1a; 一、遗传算法的开源文件 下载“gatbx”压缩包文件&#xff0c;解压后&#xff0c;里面有多个.m文件&#xff0c;可以看到这些文件的编辑日期都是1998年&#xff0c;很古老了。 这些文件包含了遗传算法的基础操作&#xff0c;包含…

【软件工程大题】数据流图_DFD图_精简易上手

数据流图(DFD)是一种图形化技术,它描绘信息流和数据从输人移动到输出的过程中所经受的变换。 首先给出一个数据流图样例 基本的四种图形 直角矩形:代表源点或终点,一般来说,是人,如例图的仓库管理员和采购员圆形(也可以画成圆角矩形):是处理,一般来说,是动作,是动词名词的形式…

数据结构学习 jz13衣橱整理

关键词&#xff1a;搜索算法 dfs bfs 回溯 题目&#xff1a; 各数位之和&#xff1a; 求法代码&#xff1a; int sums(int x){int s0;while(x!0){sx%10;xx/10;}return s;} 总的思路&#xff1a; 这道题是求可以到达的格子数&#xff0c;想到可以用搜索算法来做&#xff0c;…

【西城微科】家用电子秤芯片CSU8RP1186

随着科技的不断发展&#xff0c;时代的变化&#xff0c;电子秤已经成为我们日常生活中不可或缺的测量工具。电子秤由称重模块、ADC芯片、MCU主控芯片、按键模块及显示模块等设计开发组成。当物体放到秤体上时&#xff0c;称重模块中的压力传感器取得称重物体的信息&#xff0c;…

【回溯】图的m着色问题Python实现

文章目录 [toc]问题描述图的 m m m可着色判定问题图的 m m m可着色优化问题四色猜想 回溯法时间复杂性Python实现 个人主页&#xff1a;丷从心 系列专栏&#xff1a;回溯法 问题描述 图的 m m m可着色判定问题 给定无向连通图 G G G和 m m m种不同的颜色&#xff0c;用这些颜…

Flutter配置Android和IOS允许http访问

默认情况下&#xff0c;Android和IOS只支持对https的访问&#xff0c;如果需要访问不安全的连接&#xff0c;也就是http&#xff0c;需要做以下配置。 Android 在res目录下的xml目录中(如果不存在&#xff0c;先创建xml目录)&#xff0c;创建一个xml文件network_security_con…

Python初学者必须吃透的69个内置函数!

所谓内置函数&#xff0c;就是Python提供的, 可以直接拿来直接用的函数&#xff0c;比如大家熟悉的print&#xff0c;range、input等&#xff0c;也有不是很熟&#xff0c;但是很重要的&#xff0c;如enumerate、zip、join等&#xff0c;Python内置的这些函数非常精巧且强大的&…

SpreadJS 集成使用案例

SpreadJS 集成案例 介绍&#xff1a; SpreadJS 基于 HTML5 标准&#xff0c;支持跨平台开发和集成&#xff0c;支持所有主流浏览器&#xff0c;无需预装任何插件或第三方组件&#xff0c;以原生的方式嵌入各类应用&#xff0c;可以与各类后端技术框架相结合。SpreadJS 以 纯前…

python实现一维傅里叶变换——冈萨雷斯数字图像处理

原理 傅立叶变换&#xff0c;表示能将满足一定条件的某个函数表示成三角函数&#xff08;正弦和/或余弦函数&#xff09;或者它们的积分的线性组合。在不同的研究领域&#xff0c;傅立叶变换具有多种不同的变体形式&#xff0c;如连续傅立叶变换和离散傅立叶变换。最初傅立叶分…

ArcGIS Pro中Conda环境的Scripts文件解读

Scripts中包含的文件如下 1. propy.bat 用于在 ArcGIS Pro 外部运行 Python 脚本&#xff08;扩展名为 .py 的文件&#xff09;。使用的conda环境是与ArcGIS pro环境同步。propy.bat原理是代替各自python环境下的python.exe&#xff0c;主要区别是propy.bat使用的是与Pro同的…

携手共进 探索生命|清华大学创融同学会走进生命系 共话细胞科技新未来

携手共进 探索生命&#xff5c;清华大学创融同学会走进生命系 共话细胞科技新未来 探索细胞产业新高度&#xff0c;赋予生命健康更多保障&#xff01;日前&#xff0c;清华大学创融同学会一行莅临全生命周期健康管理中心——生命系参观交流。生命系领导以及全体员工对来访贵宾…

Javascript break continue 跳转语句讲解

Javascript break continue 跳转语句讲解 目录 Javascript break continue 跳转语句讲解 一、break语句 二、continue语句 JavaScript支持的跳转语句主要有2种&#xff1a; &#xff08;1&#xff09;break语句&#xff1b;&#xff08;2&#xff09;continue语句&#xf…

Jmeter 性能 —— 监控服务器!

Jmeter 监控Linux需要三个文件 JMeterPlugins-Extras.jar (包&#xff1a;JMeterPlugins-Extras-1.4.0.zip)JMeterPlugins-Standard.jar (包&#xff1a;JMeterPlugins-Standard-1.4.0.zip)ServerAgent-2.2.3.zip 1、Jemter 安装插件 在插件管理中心的搜索Servers Performa…

软件测试/测试开发丨Python学习笔记之内置库科学计算、日期与时间处理

Python 内置库 - 科学计算 了解 math 函数 math 函数&#xff0c;python 提供的内置数学类函数库&#xff0c;包含了很多数学公式。 比如幂函数运算&#xff0c;三角函数&#xff0c;高等函数运算等。 math 函数操作 数字常数数论与表示函数幂对数函数三角对数函数高等特殊…

Flask 日志

flask 日志 代码源码源自编程浪子flask点餐小程序代码 记录用户访问日志 和 错误日志 这段代码是一个基于Flask框架的日志服务类&#xff0c;用于 记录用户访问日志 和 错误日志。代码中定义了一个名为LogService的类&#xff0c;其中包含了两个静态方法&#xff1a;addAcc…

C语言-第十七周课堂总结-数组

找出矩阵中最大值所在的位置 程序解析-求矩阵的最大值 源程序段 二维数组 多维数组的空间想象 一维数组&#xff1a;一列长表或一个向量二维数组&#xff1a;一个表格或一个平面矩阵三维数组&#xff1a;三位空间的一个方阵多维数组&#xff1a;多维空间的一个数据矩阵 …