LVS(Linux virual server)详解

目录

一、LVS(Linux virual server)是什么?

二、集群和分布式简介 

2.1、集群Cluster

2.2、分布式

2.3、集群和分布式

三、LVS运行原理

3.1、LVS基本概念

3.2、LVS集群的类型

3.2.1 nat模式

3.2.2 DR模式

3.2.3、LVS工作模式总结

3.3 LVS的调度算法

3.3.1 静态调度算法

3.3.2、动态调度算法

四、LVS部署命令介绍

4.1 相关软件信息

4.2 ipvsadm命令

4.3 集群中增删改参数

五、LVS部署集群演示

5.1 部署NAT模式集群

5.1.1 实验环境:

5.1.2 lvs配置:

5.1.3 webserver1配置:

5.1.4 webserver2配置:

5.1.5 lvs上面测试:

5.2 部署DR模式集群

5.2.1 实验环境

5.2.1.1 配置要点: 

5.2.1.2 解决vip响应问题:

5.2.1.2 router 配置:

5.2.1.3 lvs配置: 

5.2.1.4 RS1和RS2配置:

5.2.1.5 client 测试效果: 

5.3 防火墙标签解决轮询错误

5.3.1 轮询规则中可能会遇到的错误

5.3.2 防火墙标记解决轮询调度问题

5.3.2.1 在lvs中设定端口标签

5.4 lvs持久链接

5.4.1 解决方法:


一、LVS(Linux virual server)是什么?

       LVS(Linux virual server) :是 Linux 下的虚拟服务器集群系统。它主要用于实现服务器集群的负载均衡,可以将多台服务器组合成一个高性能、高可用的服务器集群,将外部请求均衡地分配到集群中的各个服务器上,从而提高系统的处理能力和可靠性。

二、集群Cluster和分布式介绍

2.1 集群Cluster

Cluster:集群是为了解决某个特定问题将多台计算机组合起来形成的单个系统。

cluster常见的三种类型:

  1. 高可用性集群(High Availability Cluster):旨在确保关键业务系统持续运行,当一个节点出现故障时,其他节点能够迅速接管,以减少停机时间。
  2. 负载均衡集群(Load Balancing Cluster):将工作负载分布到多个节点上,以提高系统的整体性能和吞吐量,确保资源得到合理利用。
  3. 高性能计算集群(High Performance Computing Cluster):主要用于大规模科学计算、数据分析等需要强大计算能力的领域,通过将多个计算节点连接在一起,实现高效的并行计算。

例如,在网络服务器中,高可用性集群可以保证服务的不间断;在大型网站中,负载均衡集群可以分担访问压力;在科研领域,高性能计算集群可以加速复杂的计算任务。

2.2 分布式

        分布式系统是将多台计算机通过网络连接在一起,共同完成特定任务的系统。在分布式系统中,任务被分解成多个子任务,分布到不同的节点上执行,从而实现资源共享、提高系统的性能、扩展性和容错能力。

它具有以下特点:

  • 分布性:系统中的资源和组件分布在不同的物理位置。
  • 并发性:多个任务可以同时执行。
  • 透明性:系统对用户隐藏了底层的分布式特性。
  • 异构性:系统中的节点可能具有不同的硬件和软件配置。

分布式系统在互联网、云计算、大数据等领域都有广泛应用,例如分布式数据库、分布式文件系统等。

2.3、集群和分布式

介绍:

集群:同一个业务系统,部署在多台服务器上,集群中,每一台服务器实现的功能没有差别,数据

和代码都是一样的。

分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务。

区别:

分布式:是以缩短单个任务的执行时间来提升效率的。

集群:则是通过提高单位时间内执行的任务数来提升效率,

三、LVS运行的原理

3.1、LVS基本概念

 VS:Virtual Server(虚拟服务器):这是整个集群对外提供服务的统一入口,客户端通过访问虚拟服务器的 IP 地址来获取服务。

RS:Real Server(真实服务器):实际处理业务请求的服务器,它们组成了服务器集群,共同承担负载。

CIP:Client IP(客户端 IP):发起请求的客户端的 IP 地址。

VIP:Virtual Server IP(虚拟服务器 IP 地址):通常是一个对外公开的、可被客户端访问到的 IP 地址,代表了整个集群。

DIP:Director IP(调度器 IP 地址):即负载均衡器的 IP 地址,用于接收客户端请求并进行分配调度。

RIP:Real Server IP(真实服务器 IP 地址):集群中各真实服务器的 IP 地址。

例如,在一个网络架构中,客户端通过 VIP 访问服务,负载均衡器(VS)使用 DIP 接收请求,并将其分配到各个 RS 上,RS 使用 RIP 进行实际的业务处理。

LVS工作原理:VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。

3.2、LVS集群的类型

类型:

类型说明
lvs-net修改请求报文的目标IP,多目标IP的DNAT

lvs-dr

操纵封装新的MAC地址
lvs-tun (了解)在原请求IP报文之外新加一个IP首部
lvs-fullnat(了解)修改请求报文的源和目标IP
3.2.1 LVS - NAT模式
  • 本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和PORT实现转发

  • RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP

  • 请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈

  • 支持端口映射,可修改请求报文的目标PORT

  • VS必须是Linux系统,RS可以是任意OS系统

3.2.1.1 NAT模式的数据逻辑:

 1.客户端发送访问请求,请求数据包中含有请求来源(cip),访问目标地址(VIP)访问目标端口(9000port)

2.VS服务器接收到访问请求做DNAT把请求数据包中的目的地由VIP换成RS的RIP和相应端口

3.RS1相应请求,发送响应数据包,包中的相应保温为数据来源(RIP1)响应目标(CIP)相应端口(9000port)

4.VS服务器接收到响应数据包,改变包中的数据来源(RIP1-->VIP),响应目标端口(9000-->80)

5.VS服务器把修改过报文的响应数据包回传给客户端

6.lvs的NAT模式接收和返回客户端数据包时都要经过lvs的调度机,所以lvs的调度机容易阻塞

 

客户请求到达vip后进入PREROUTING,在没有ipvs的时候因该进入本机INPUT,当IPVS存在后访问请求在通过PREROUTING后被ipvs结果并作nat转发

因为ipvs的作用点是在PREROUTING和INPUT链之间,所以如果在prerouting中设定规则会干扰ipvs的工作。所以在做lvs时要把iptables的火墙策略全清理掉。

3.2.2 LVS-DR模式

DR 模式集群(Disaster Recovery Cluster) 是一种用于灾难恢复的集群模式。

       在这种模式下,集群中的节点通常处于备用状态,随时准备在主节点发生故障或灾难时接管业务,以确保业务的连续性和数据的安全性。

       例如,在金融行业,DR 模式集群可以在主数据中心遭受灾害时,迅速切换到备用数据中心,保障业务的正常运行。

3.2.2.1 DR模式数据传输过程:

1.客户端发送数据帧给vs调度主机帧中内容为客户端IP+客户端的MAC+VIP+VIP的MAC


2.VS调度主机接收到数据帧后把帧中的VIP的MAC该为RS1的MAC,此时帧中的数据为客户端IP+客户端的MAC+VIP+RS1的MAC


3.RS1得到2中的数据包做出响应回传数据包,数据包中的内容为VIP+RS1的MAC+客户端IP+客户端IP的MAC

3.2.2.2 DR模式的特点:

1.Director和各RS都配置有VIP


2.确保前端路由器将目标IP为VIP的请求报文发往Director


3.在前端网关做静态绑定VIP和Director的MAC地址

在RS上使用arptables工具
arptables -A IN -d $VIP -j DROP
arptables -A OUT -s $VIP -j mangle --mangle-ip-s $RIP

在RS上修改内核参数以限制arp通告及应答级别
echo 1 > /proc/sys/net/ipv4/conf/all or (lo)/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all or (lo)/arp_announce

4.RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;


5.RIP的网关不能指向DIP,以确保响应报文不会经由Director


6.RS和Director要在同一个物理网络


7.请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client


8.不支持端口映射(端口不能修败)


9.RS可使用大多数OS系统

3.2.2.3LVS- NAT模式和LVS - DR模式总结
NAT模式DR模式
RS操作系统不限禁用arp
调度器和服务器网络可跨网络不可跨网络
调度服务器数量服务器数量
RS服务器网关指向到调度器DIP指向到路由

lvs-nat与lvs-fullnat:请求和响应报文都经由Director


lvs-nat:RIP的网关要指向DIP


lvs-fullnat:RIP和DIP未必在同一IP网络,但要能通信


lvs-dr与lvs-tun:请求报文要经由Director,但响应报文由RS直接发往Client


lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发


lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信 

3.3 LVS的调度算法

 根据其调度时是否考虑各RS当前的负载状态被分为两种:静态方法和动态方法。

算法说明
静态方法仅根据算法本身进行调度,不考虑RS的负载情况
动态方法主要根据每RS当前的负载状态及调度算法进行调度Overhead=value较小的RS将被调度
3.3.1 静态调度算法
算法说明
RR(roundrobin)轮询 RS分别被调度,当RS配置有差别时不推荐
WRR(Weighted RR)加权轮询根据RS的配置进行加权调度,性能差的RS被调度的次数少
SH(Source Hashing)实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定
DH(Destination Hashing)目标地址哈希,第一次轮询调度至RS,后续将发往同一个目标地址的请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡,如:宽带运营商
3.3.2、动态调度算法

 主要根据RS当前的负载状态及调度算法进行调度Overhead=value较小的RS会被调度

算法说明
LC(least connections)(最少链接发)适用于长连接应用Overhead(负载值)=activeconns(活动链接数) x 256+inactiveconns(非活动链接数)
WLC(Weighted LC)(权重最少链接)默认调度方法Overhead=(activeconns x 256+inactiveconns)/weight
SED(Shortest Expection Delay)初始连接高权重优先Overhead=(activeconns+1+inactiveconns) x 256/weight但是,当webserver1的权重为1,webserver2的权重为10,经过运算前几次的调度都会被node2承接
NQ(Never Queue)第一轮均匀分配,后续SED
LBLC(Locality-Based LC)动态的DH算法,使用场景:根据负载状态实现正向代理
LBLCR(LBLC with Replication)带复制功能的LBLC,解决LBLC负载不均衡问题,从负载重的复制

四、LVS部署命令介绍

4.1 所需软件信息

程序包:ipvsadm
Unit File: ipvsadm.service
主程序:/usr/sbin/ipvsadm
规则保存工具:/usr/sbin/ipvsadm-save
规则重载工具:/usr/sbin/ipvsadm-restore
配置文件:/etc/sysconfig/ipvsadm-config
ipvs调度规则文件:/etc/sysconfig/ipvsadm 

4.2 集群中增删改参数

4.2.1 管理集群服务中的增删改:  
参数说明
-A添加
-E修改
-ttcp服务
-uudp服务
-s指定调度算法,默认为WLC
-p设置持久链接超时,持久链接可以理解为在同一个时间段同一个来源的请求调度到同一Realserver
-ffirewall mask 火墙标记,是一个数字
增加:
[root@haproxy ~]# ipvsadm -A -t 192.168.0.50:80 -s rr
[root@haproxy ~]# 
[root@haproxy ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.50:80 rr
[root@haproxy ~]# 修改:
[root@haproxy ~]# ipvsadm -E -t 192.168.0.50:80 -s wrr
[root@haproxy ~]# 
[root@haproxy ~]# 
[root@haproxy ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.50:80 wrr
[root@haproxy ~]# 删除:
[root@haproxy ~]# ipvsadm -D -t 192.168.0.50:80
[root@haproxy ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[root@haproxy ~]# 
 4.2.2 管理集群中RealServer的增删改:
参数说明
-a添加realserver
-e更改realserver
-ttcp协议
-uudp协议
-f火墙标签
-rrealserver地址
-g直连路由模式
-iip隧道模式
-mnat模式
-w设定权重
-Z清空计数器
-C清空lvs策略
-L查看lvs策略
-n不做解析
--rate输出速率信息
增加:
[root@haproxy ~]# ipvsadm -a -t 192.168.0.50:80 -r 192.168.0.10:80 -m
[root@haproxy ~]# ipvsadm -a -t 192.168.0.50:80 -r 192.168.0.20:80 -m -w 2
[root@haproxy ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.50:80 rr-> 192.168.0.10:80              Masq    1      0          0         -> 192.168.0.20:80              Masq    2      0          0         更改:
[root@haproxy ~]# ipvsadm -e -t 192.168.0.50:80 -r 192.168.0.10 -m -w 2
[root@haproxy ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.50:80 rr-> 192.168.0.10:80              Masq    2      0          0         -> 192.168.0.20:80              Masq    2      0          0         
[root@haproxy ~]# 删除:
[root@haproxy ~]# ipvsadm -d -t 192.168.0.50:80 -r 192.168.0.10
[root@haproxy ~]# ipvsadm -d -t 192.168.0.50:80 -r 192.168.0.20
[root@haproxy ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.50:80 rr

五、LVS部署集群演示

5.1 部署NAT模式集群

  • Director 服务器采用双网卡,一个是桥接网卡连接外网,一个是仅主机网卡与后端Web服务器相连
  • Web服务器采用仅主机网卡与director相连
  • Web服务器网关指向192.168.0.100
  • 后端web服务器不需要连接外网
5.1.1 实验环境:
主机IPvip角色
lvs192.168.0.100172.25.254.100调度器
webserver1192.168.0.10null真实服务器
webserver2192.168.0.20null真实服务器
5.1.2 lvs配置:
yum install ipvsadm -y  --- 安装软件ipvsadm
echo "net.ipv4.ip_forward=1" > /etc/sysctl.conf/  --- 启用内核路由,并写入配置文件
添加调度策略并查看
[root@lvs ~]# ipvsadm -A -t 172.25.254.100:80 -s rr
[root@lvs ~]# ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.10:80 -m
[root@lvs ~]# ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.20:80 -m
[root@lvs ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  172.25.254.100:80 rr-> 192.168.0.10:80              Masq    1      0          0         -> 192.168.0.20:80              Masq    1      0          0         
[root@lvs ~]# systemclt stop firewalld查看策略另外的方式:
cat /proc/net/ip_vs
cat /proc/net/ip_vs_conn
5.1.3 webserver1配置:
yum install httpd -yecho webserver1 - 192.168.0.10 > /var/www/html/index.htmlsystemctl restart httpd
systemctl stop firewalld
5.1.4 webserver2配置:
yum install httpd -yecho webserver2 - 192.168.0.20 > /var/www/html/index.htmlsystemctl restart httpd
systemctl stop firewalld
5.1.5 lvs上面测试:
[root@lvs ~]# for i in {1..10}
> do
> curl 172.25.254.100
> done

上面的配置都是临时的,重启之后需要重新做。

这里web服务写的不一样是因为便于查看测试结果,企业中内容应该是一样的。

5.2 部署DR模式集群

5.2.1 实验环境
主机IPVIP角色
client

NAT模式:

ens160:172.25.254.200/24

null测试主机
router

NAT模式:

ens160:172.25.254.100/24

仅主机模式:

ens224:192.168.0.100/24

null路由器
lvs

仅主机模式:

ens224:192.168.0.50/24

lo:192.168.0.200调度器
webserver1

仅主机模式:

ens224:192.168.0.10/24

lo:192.168.0.200web1服务器
webserver2

仅主机模式:

ens224:192.168.0.20/24

lo:192.168.0.200web2服务器
5.2.1.1 clinent主机环境:

5.2.1.2 router主机环境:

5.2.1.3lvs主机环境:

5.2.1.4 webserver1主机环境:

5.2.1.5 webserver2主机环境:

5.2.2 配置要点: 
  • Director服务器采用双IP桥接网络,一个是VIP,一个DIP
  • Web服务器采用和DIP相同的网段和Director连接
  • 每个Web服务器配置VIP
  • 每个web服务器可以出外网
  • 所有主机都要关掉防火墙和selinux
5.2.2.1 解决vip响应问题:

DR模型中各主机上均需要配置VIP,解决地址冲突的方式有三种:

  • 在前端网关做静态绑定
  • 在各RS使用arptables
  • 在各RS修改内核参数,来限制arp响应和通告的级别

限制响应级别:arp_ignore:

级别说明
0默认值,表示可使用本地任意接口上配置的任意地址进行响应
1仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时,才给予响应

限制通告级别:arp_announce:

级别说明
0默认值,把本机所有接口的所有信息向每个接口的网络进行通告
1尽量避免将接口信息向非直接连接网络进行通告
2必须避免将接口信息向非本网络进行通告
5.2.1.2 router 配置:
sysctl -a | grep ip_forwrd   ------ 查看内核路由是否启用
echo "net.ipv4.ip_forward=1" > /etc/sysctl.conf/  --- 启用内核路由,并写入配置文件
5.2.1.3 lvs配置: 
设定vip
[root@lvs ~]# ip a a dev lo 192.168.0.200/32配置策略:
[root@lvs ~]# ipvsadm -A -t 192.168.0.200:80 -s wrr 
[root@lvs ~]# ipvsadm -a -t 192.168.0.200:80 -r 192.168.0.10:80 -g -w 1
[root@lvs ~]# ipvsadm -a -t 192.168.0.200:80 -r 192.168.0.20:80 -g -w 2
[root@lvs ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.200:80 wrr-> 192.168.0.10:80              Route   1      0          0         -> 192.168.0.20:80              Route   2      0          0         
[root@lvs ~]# 
5.2.1.4 RS1和RS2配置:
在RS1和RS2中解决响应问题并设定VIP
[root@webserver1 ~]# ip a a dev lo 192.168.0.200/32
[root@webserver1 ~]# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
[root@webserver1 ~]# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce 
[root@webserver1 ~]# echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce 
[root@webserver1 ~]# echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore 
[root@webserver1 ~]# [root@webserver2 ~]# ip a a dev lo 192.168.0.200/32
[root@webserver2 ~]# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
[root@webserver2 ~]# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce 
[root@webserver2 ~]# echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce 
[root@webserver2 ~]# echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
5.2.1.5 client 测试效果: 
[root@client ~]# for i in {1..10}
> do
> curl 192.168.0.200
> done
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
[root@client ~]# 

5.3 防火墙标签解决轮询错误

5.3.1 轮询规则中可能会遇到的错误

        以http和https为例,当我们在RS中同时开放80和443端口,那么默认控制是分开轮询的,这样我们就出现了一个轮询错乱的问题。

当我第一次访问80被轮询到RS1后下次访问443仍然可能会被轮询到RS1上。

 问题展示:

在两台服务器中安装mod_ssl
[root@webserver1 ~]# dnf install mod_ssl -y
[root@webserver2 ~]# dnf install mod_ssl -y设置调度策略,因为我们要调度80和443两个端口所以我们需要设定两组策略
[root@lvs ~]# ipvsadm -A -t 192.168.0.200:80 -s rr
[root@lvs ~]# ipvsadm -a -t 192.168.0.200:80 -r 192.168.0.10:80 -g
[root@lvs ~]# ipvsadm -a -t 192.168.0.200:80 -r 192.168.0.20:80 -g
[root@lvs ~]# ipvsadm -A -t 192.168.0.200:443 -s rr
[root@lvs ~]# ipvsadm -a -t 192.168.0.200:443 -r 192.168.0.10:443 -g
[root@lvs ~]# ipvsadm -a -t 192.168.0.200:443 -r 192.168.0.20:443 -g
[root@lvs ~]# 
[root@lvs ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.0.200:80 rr-> 192.168.0.10:80              Route   1      0          0         -> 192.168.0.20:80              Route   1      0          0         
TCP  192.168.0.200:443 rr-> 192.168.0.10:443             Route   1      0          0         -> 192.168.0.20:443             Route   1      0          0         
[root@lvs ~]# 测试问题:
[root@client ~]# curl 192.168.0.200;curl -k https://192.168.0.200
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
[root@client ~]# 
访问vip时都到了相同的服务器
5.3.2 防火墙标记解决轮询调度问题
5.3.2.1 在lvs中设定端口标签:
为端口做标记:
[root@lvs ~]# iptables -t mangle -A PREROUTING -d 192.168.0.200 -p tcp -m multiport --dports 80,443 -j MARK --set-mark 66查看是否做上标记:
[root@lvs ~]# iptables -t mangle -nL
Chain PREROUTING (policy ACCEPT)
target     prot opt source               destination         
MARK       6    --  0.0.0.0/0            192.168.0.200        multiport dports 80,443 MARK set 0x42Chain INPUT (policy ACCEPT)
target     prot opt source               destination         Chain FORWARD (policy ACCEPT)
target     prot opt source               destination         Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination         Chain POSTROUTING (policy ACCEPT)
target     prot opt source               destination         
[root@lvs ~]# 设置调度策略:
[root@lvs ~]# ipvsadm -A -f 66 -s rr
[root@lvs ~]# ipvsadm -a -f 66 -r 192.168.0.10 -g
[root@lvs ~]# ipvsadm -a -f 66 -r 192.168.0.20 -g
[root@lvs ~]# 
[root@lvs ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
FWM  66 rr-> 192.168.0.10:0               Route   1      0          0         -> 192.168.0.20:0               Route   1      0          0         
[root@lvs ~]# 测试[root@client ~]# curl 192.168.0.200;curl -k https://192.168.0.200
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
[root@client ~]# 此时就解决了轮询错误问题。
5.4 lvs持久链接

       在我们客户上网过程中有很多情况下需要和服务器进行交互,客户需要提交响应信息给服务器,如果单纯的进行调度会导致客户填写的表单丢失,为了解决这个问题我们可以用sh算法,但是sh算法比较简单粗暴,可能会导致调度失衡

5.4.1 解决方法:

       在进行调度时,不管用什么算法,只要相同源过来的数据包我们就把他的访问记录在内存中,也就是把这个源的主机调度到了那个RS上如果在短期(默认360S)内同源再来访问我仍然按照内存中记录的调度信息,把这个源的访问还调度到同一台RS上。如果过了比较长的时间(默认最长时间360s)同源访问再次来访,那么就会被调度到其他的RS上 。

ipvsadm -AlE -tlulf service-address [-s scheduler] [-p [timeout]]默认360秒
在lvs调度器中设定
[root@lvs ~]# ipvsadm -E -f 6666 -s rr -p [3000]
[root@lvs ~]# ipvsadm -LnC

一般配合动态调度算法使用效果会好一些。 

5.4.2 演示:

LVS中做:

[root@lvs ~]# ipvsadm -E -f 66 -s rr -p
[root@lvs ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
FWM  66 rr persistent 360-> 192.168.0.10:0               Route   1      0          0         -> 192.168.0.20:0               Route   1      0          0         
[root@lvs ~]# 

测试:

[root@client ~]# for i in {1..10}
> do
> curl 192.168.0.200
> done
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
webserver2 - 192.168.0.20
[root@client ~]# 此时就不是轮询错误,是因为设置了持久链接

删除持久链接:

[root@lvs ~]# ipvsadm -E -f 66 -s rr 
[root@lvs ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
FWM  66 rr-> 192.168.0.10:0               Route   1      0          0         -> 192.168.0.20:0               Route   1      0          0         
[root@lvs ~]# 

 

再轮询查看:

[root@client ~]# for i in {1..10}; do curl 192.168.0.200; done
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
webserver1 - 192.168.0.10
webserver2 - 192.168.0.20
[root@client ~]# 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/396298.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

黑马Java零基础视频教程精华部分_18_Arrays各种方法

系列文章目录 文章目录 系列文章目录Arrays简介Arrays各种方法toString代码示例binarySearch代码示例copyOf代码示例copyOfRange和fill代码示例sort代码示例 Arrays简介 操作数组的工具类。 Arrays各种方法 toString代码示例 int[]arr{1, 2, 3, 4, 5, 6, 7, 8, 9, 10}; //to…

非线性链表之树结构和堆的代码实现

目录 一.树的结构 1.1树概念及结构 1.2 树的相关概念 1.3 树的表示 二. 二叉树概念及结构 2.1概念 2.2 特殊的二叉树: 2.3 二叉树的性质 2.4 二叉树的存储结构 2.4.1. 顺序存储 ​2.4.2. 链式存储 三. 堆的概念及结构 定义 性质 堆的实现 四.堆的代…

kafka零拷贝sendfile及mmap简述

概述 通常在选型比较消息中间件时,都会在备选栏有kafka; kafka突出的特点就是高吞吐,零拷贝; 这里的零拷贝其实就是内核和用户空间之间没有copy,并不是真的0拷贝; 毕竟数据在磁盘,要读到网卡发…

k8s集群管理 Pod管理命令

k8s集群管理命令 信息查询命令 子命令说明help用于查看命令及子命令的帮助信息cluster-info显示集群的相关配置信息api-resources查看当前服务器上所有的资源对象api-versions查看当前服务器上所有资源对象的版本config管理当前节点上的认证信息 资源对象概述 Pod概述 Pod 管…

# 利刃出鞘_Tomcat 核心原理解析(三)

利刃出鞘_Tomcat 核心原理解析(三) 一、 Tomcat专题 - Tomcat架构 - 启动流程 1、Tomcat 启动流程 2、Tomcat 启动 步骤 : 1) 启动tomcat , 需要调用 bin/startup.bat (在linux 目录下 , 需要调用 bin/startup.sh) &#xff0c…

Dubbo框架实现RPC远程调用包括nacos的配置和初始化

项目背景介绍 这个技术我是直接在项目中运用并且学习的,所以我写笔记最优先的角度就是从项目背景出发 继上一次API网关完成了这个实现用户调用一次接口之后让接口次数增多的操作之后,又迎来了新的问题。 就是我们在调用接口的时候需要对用户进行校验&…

【Linux】详解IPC:共享内存

目录 IPC 共享内存 1.理解 2.运用 1. 创建 ipc - shmget 2. 创建 key - ftok ⭕shmid vs key 3. 连接 - shmat 4. 脱离 - shmdt 5. 控制/删除 - shmctl 总结 代码示例 3.实验 comm.hpp processa.cc processb.cc log.hpp makefile 测试 4.思考 IPC 进程间通…

vue3引入模块报错:无法找到模块“xxx”的声明文件

使用vue3ts导入vue文件的时候,报错:找不到模块“./XXX.vue”或其相应的类型声明 这是由于:Vue 文件并不是标准的 JavaScript 模块,因此 TypeScript 需要通过这种声明方式来理解和处理这些文件 我是使用vite创建的项目&#xff0…

【生信入门linux篇】如何安装一个linux虚拟机用于学习

一.虚拟机 虚拟机(Virtual Machine,简称VM)是一种软件实现的计算机系统,它能够在物理计算机上模拟出多个独立的计算机环境。每个虚拟机都可以运行自己的操作系统和应用程序,就像在独立的物理计算机上一样。虚拟机技术…

小试牛刀-区块链Solana多签账户

目录 1.什么是多签账户 2.多签账户的特点 2.1 多个签名者 2.2 最小签名要求 2.3 常见应用场景 3.多签账户实现 3.1 账户的创建 3.1.1 创建新账户 3.1.2 获取创建和初始账户事务 3.1.3 账户的签名 3.2 代币转移操作 Welcome to Code Blocks blog 本篇文章主要介绍了 …

LeetCode_sql_day16(601.体育馆的人流量)

描述:601. 体育馆的人流量 - 力扣(LeetCode) 编写解决方案找出每行的人数大于或等于 100 且 id 连续的三行或更多行记录。 返回按 visit_date 升序排列 的结果表。 输入Stadium表: ----------------------------- | id | visit_date | peop…

电子电气架构 --- 车辆模式管理

我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 屏蔽力是信息过载时代一个人的特殊竞争力,任何消耗你的人和事,多看一眼都是你的不对。非必要不费力证明自己,无利益不试图说服别人,是精神上的节…

CUDA-MODE 第一课: 如何在 PyTorch 中 profile CUDA kernels

我的课程笔记,欢迎关注:https://github.com/BBuf/how-to-optim-algorithm-in-cuda/tree/master/cuda-mode 第一课: 如何在 PyTorch 中 profile CUDA kernels 这里是课程规划,有三位讲师 Andreas, Thomas, Mark,然后大概2周出一个 …

Elasticsearch:用例、架构和 6 个最佳实践

1. 什么是 Elasticsearch? Elasticsearch 是一个开源分布式搜索和分析引擎,专为处理大量数据而设计。它建立在 Apache Lucene 之上,并由Elastic 支持。Elasticsearch 用于近乎实时地存储、搜索和分析结构化和非结构化数据。 Elasticsearch 的…

4.3.2 C++ 平面拟合的实现

4.3.2 C 平面拟合的实现 参考教程: gaoxiang12/slam_in_autonomous_driving: 《自动驾驶中的SLAM技术》对应开源代码 (github.com) Eigen打印输出_打印eigen矩阵-CSDN博客 1. 编写 Plane fitting 1.1 创建文件夹 通过终端创建一个名为Plane_fitting的文件夹以保…

文件操作与IO(下)

✨个人主页: 不漫游-CSDN博客 目录 前言 流对象 InputStream OutputStream 运用 在控制台进行输入并写入文件 进行普通文件的复制 前言 之前的文章文件操作与IO(上)已经介绍了文件系统的相关操作,这次的主角是文件内容的相关…

SpringBoot 框架学习笔记(七):Thymeleaf、拦截器 和 文件上传实现(解决了文件重名 和 按日期分目录存放问题)

1 Thymeleaf 1.1 基本介绍 (1)官方文档:Tutorial: Using Thymeleaf (2)Thymeleaf 是什么 Thymeleaf 是一个跟 Velocity、FreeMarker 类似的模板引擎,可完全替代 JSPThymeleaf 是一个 java 类库&#xf…

.net core webapi 自定义异常过滤器

1.定义统一返回格式 namespace webapi;/// <summary> /// 统一数据响应格式 /// </summary> public class Results<T> {/// <summary>/// 自定义的响应码&#xff0c;可以和http响应码一致&#xff0c;也可以不一致/// </summary>public int Co…

vue 打包时候的分包

export default defineConfig({plugins: [vue()],resolve: {alias: {: fileURLToPath(new URL(./src/, import.meta.url))}},// 分包&#xff0c;node_modules中的单独打包成名字为vendor的js文件build: {rollupOptions: {manualChunks(id) {if (id.includes(node_modules)) {r…

EF8 学习过程中的问题和解决方案

一、varchar类型字段如果为null 无法使用contains来判断是否包含字符串 1. 有问题的代码&#xff1a; contractList _dbcontext.contractHeads.Where(u > u.code.Contains(queryStr) || u.name.Contains(queryStr) || u.companyName.Contains(queryStr) || u.customerNa…