基于docker+Keepalived+Haproxy高可用前后的分离技术

基于docker+Keepalived+Haproxy高可用前后端分离技术

架构图

image-20231008112141771

服务名docker-ip地址docker-keepalived-vip-ip
haproxy-01docker-ip自动分配 未指定ip192.168.31.252
haproxy-02docker-ip自动分配 未指定ip192.168.31.253

安装haproxy

宿主机ip 192.168.31.254
宿主机keepalived虚拟网络未定义

  1. 下载docker镜像
    docker pull haproxy:2.1
    

    image-20231008133511141

  2. 配置haproxy 配置文件 文件名haproxy.cfg
global#工作目录chroot /usr/local/etc/haproxy#日志文件,使用rsyslog服务中local5日志设备(/var/log/local5),等级infolog 127.0.0.1 local5 info#守护进程运行daemondefaultslog 127.0.0.1 local0 err #[err warning info debug]mode http                #默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OKretries 2                #两次连接失败就认为是服务器不可用,也可以通过后面设置option redispatch        #当serverId对应的服务器挂掉后,强制定向到其他健康的服务器option abortonclose      #当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接option dontlognull       #日志中不记录负载均衡的心跳检测记录maxconn 4096             #默认的最大连接数timeout connect 5000ms   #连接超时timeout client 30000ms   #客户端超时timeout server 30000ms   #服务器超时#timeout check 2000      #=心跳检测超时######## 监控界面配置 #################	
listen  admin_stats#监控界面的访问的IP和端口bind  0.0.0.0:8888#访问协议mode        http#URI相对地址stats uri   /dbs#统计报告格式stats realm     Global\ statistics#登陆帐户信息stats auth  admin:admin########frontend配置##############
#mycat负载均衡
listen  proxy-mycat#访问的IP和端口bind  0.0.0.0:9000  #网络协议mode  tcp#负载均衡算法(轮询算法)#轮询算法:roundrobin#权重算法:static-rr#最少连接算法:leastconn#请求源IP算法:source balance  roundrobin# 这里是容器中的IP地址,由于配置的是轮询roundrobin,weight 权重其实没有生效server haproxy01 192.168.31.252:4001 check weight 1 maxconn 2000 server haproxy02 192.168.31.253:4002 check weight 1 maxconn 2000 # 使用keepalive检测死链option tcpka

创建Haproxy容器

haproxy01

docker run -d -p 4001:8888 -p 9000:8066  \
-v /haproxy/haproxy01:/usr/local/etc/haproxy  \
--name haproxy01 --privileged  haproxy:2.1

haproxy02

docker run -d -p 4002:8888 -p 9001:8066 \
-v /haproxy/haproxy02:/usr/local/etc/haproxy \
--name haproxy02 --privileged  haproxy:2.1
参数配置详解
-p 4001:8888        将Haproxy提供的监控界面服务端口8888映射到宿主机的4001端口-p 4002:3306        将Haproxy提供的数据库负载均衡的服务端口3306映射到宿主机的4002端口-v /home/soft/haproxy:/usr/local/etc/haproxy       将宿主机的/home/soft/haproxy目录映射到容器的/usr/local/etc/haproxy目录。将来在宿主机的/home/soft/haproxy中放入配置文件,在相映射的容器目录中就可以使用了。--name h1            给容器起名,为了保证Haproxy的高可用,将来也会启动多个Haproxy容器实例--privileged          配置权限--net=net1           使用的网段,数据库实例使用的都是net1网段,需和数据库实例使用的网段保持一致--ip 172.18.0.7     手动分配的ip地址,如不设置,docker虚拟机也会给其分配一个ip地址 haproxy:2.1               docker run使用的镜像名

image-20231008142452384

在haproxy容器中启动haproxy实例

由于容器是使用-d做后台运行的,因此之后还需要进入后台运行的容器,把haproxy中间件启动起来。

进入后台运行的容器:

docker exec -it haproxy01 /bin/bash

启用配置文件(启用完配置文件才算是真的启动了haproxy服务)
(haproxy01 、haproxy02 都需要执行)

haproxy -f /usr/local/etc/haproxy/haproxy.cfg

image-20231008143136453

查看haproxy监控界面

http://对应ip:4001/dbs
用户名:admin
密码:admin
对应上面的配置

image-20231008143421736

keepalived搭建

(haproxy01 、haproxy02 都需要执行)

1、进入docker-haproxy服务
docker exec -it haproxy01 /bin/bash
2、更新update,安装keepalived
apt-get update
apt-get install keepalived更换源这里就不操作了
3、安装vim 安装ifconfig命令 安装ping
apt-get install net-tools  vim   iputils-ping
4、新建并写入一个keepalived的配置文件(注意把注释删掉)
vim /etc/keepalived/keepalived.confvrrp_instance  VI_1 {#定义节点属性state  MASTER#定义虚拟网卡interface  eth0#定义组vriidvirtual_router_id  100#定义权重priority  100#定义心跳检测时间1秒advert_int  1#定义组用户密码authentication {auth_type  PASSauth_pass  123456}#定义docker内ip地址,必须要在和haproxy同一个网段virtual_ipaddress {172.17.0.66}
}
keepalived配置文件详细说明
vrrp_instance  VI_1 {state  MASTER   #Keepalive的身份(MASTER为主服务,BACKUP为备用服务,抢占到ip的为主服务器,没有抢占到的自动降级为备用服务器)interface  eth0  #docker中虚拟ip使用到的docker内部网卡virtual_router_id  51  #虚拟路由标识,MASTER和BACKUP的虚拟路由标识必须一致。 标识可以是0~255之间任意值。priority  100   #硬件设备条件不同时采用的权重,MASTER权重要高于BACKUP,数字越大优先级越高。advert_int  1  #keepalived节点之间的心跳检测间隔,单位为秒,主备之间必须一致。authentication {   auth_type  PASSauth_pass  123456}  #心跳检测需要登录到keepalived节点内,登录使用的账号密码。主备必须用相同的密码才能正常通信。virtual_ipaddress {172.18.0.201}  #虚拟ip,该虚拟ip将被写入到上面的docker网卡ens33中,如数据库集群的网段是172.18.0.xxx,这里就定义个大一点的该网段的ip地址。由于是docker内部的虚拟ip,在docker内部能访问,出了docker是不能访问的。
}
image-20231008150323665
启动keepalived
service keepalived start
执行 /bin/systemctl start keepalived.service 即可

image-20231008150247369

尝试宿主机能否ping通keepalived占有的虚拟ip,能ping通就说明这个虚拟ip已经配置成功了:

image-20231008150639375

如若ping不通需检查配置是否正确,以及网络模式是否是桥接。

一开始我使用的网络模式是nat,无法ping通,改为桥接后重启linux可以ping通

三、在宿主机内安装Keepalived

Haproxy容器内的keepalive已经正常运行了,其抢占的虚拟ip也可以正常ping通了。

之后需要把该虚拟ip和宿主机的ip做映射,以使外部网络可以访问到该虚拟ip,需要在宿主机上也安装keepalived。

宿主机的linux是centos,所以安装命令有所不同:

yum install -y keepalived  
apt-get   install -y keepalived

编写Keepalived配置文件

位置/etc/keepalived文件夹
宿主机配置信息

vrrp_instance VI_1 {state MASTER#这里是宿主机的网卡,可以通过ip a查看当前自己电脑上用的网卡名是哪个interface ens33virtual_router_id 100priority 100advert_int 1authentication {auth_type PASSauth_pass 1111}virtual_ipaddress {#这里是指定的一个宿主机上的虚拟ip,一定要和宿主机网卡在同一个网段,我的宿主机网卡ip是192.168.1.85,所以指定虚拟ip是给的90192.168.136.140}
}#接受监听数据来源的端口,网页入口使用
virtual_server 192.168.136.140 8888 {delay_loop 3lb_algo rr lb_kind NATpersistence_timeout 50protocol TCP#把接受到的数据转发给docker服务的网段及端口,由于是发给docker服务,所以和docker服务数据要一致real_server 172.18.0.15 8888 {weight 1}
}#接受数据库数据端口,宿主机数据库端口是3306,所以这里也要和宿主机数据接受端口一致
virtual_server 192.168.136.140 8066 {delay_loop 3lb_algo rr lb_kind NATpersistence_timeout 50protocol TCP#同理转发数据库给服务的端口和ip要求和docker服务中的数据一致real_server 172.18.0.15 8066 {weight 1}
}

image-20231008154345698

配置文件详解
注意:1. 如上配置中的virtual_server 192.168.31.252,这是我当前的宿主机的网段ip地址,需将配置中所有192.168.132.252改成自己使用的宿主机网段2. ipaddress查看自己连接宿主机的ip地址,查看ip地址对应的网卡名。把interface eth1一项修改成自己正确的宿主机网卡名。
3、启动keepalived
service keepalived start执行 /bin/systemctl start keepalived.service 即可  如果报错

启动成功后,尝试ping宿主机供请求访问的ip ping 192.168.31.99

image-20231008154658429

image-20231008154626406

测试Haproxy监控服务

通过宿主机keepalived绑定的ip访问haproxy监控服务

image-20231008154800808

注意,这次访问haproxy监控服务的ip192.168.31.99是宿主机keepalived所占有的虚拟ip,

keepalived通过这个虚拟ip192.168.31.99 转发请求到docker的虚拟ip 172.17.0.66。

haproxy01容器中的keepalived所在主服务器haproxy最后进行负载均衡请求分发。

这次访问的已经不是原本的未使用keepalived时的宿主机192.168.132.252的ip了
以上都是为了实现高可用功能,没有配置前后端分离。

至此完成高可用

Haproxy配置动静分离页面

修改主配置文件如下
globalchroot /usr/local/etc/haproxylog 127.0.0.1   local0 info                     ##定义日志级别;log 127.0.0.1   local1 noticemaxconn 4096            ##设定每个haproxy进程所接受的最大并发连接数uid 99                  ##指定运行服务的用户和组gid 99daemon                  ##指定运行模式为daemon,以守护进程的方式工作在后台
defaultslog     global                          ##采取global中的日志配置mode    http                            ##默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OKoption  httplog                         ##采用http日志格式记录日志option  dontlognull                     ##不记录健康检查的日志记录option httpclose                        ##关闭保持连接retries 3                               ##检查节点最多失败次数maxconn 2000                            ##最大连接数,定义不得大于global中的值contimeout      5000    ##连接超时时间,毫秒,在此期间,如若客户端与服务端无法成功建立连接,则断掉clitimeout      50000   ##设置连接客户端发送数据时的成功连接最长等待时间,单位为毫秒,如若在这期间无法请求成功,则断掉srvtimeout      50000   ##设置服务器端回应客户端数据发送的最长等待时间,如果在这期间还无法发送成功,则断掉##################无分离页面需求的配置##############
#listen webcluster 0.0.0.0:80                   ##指定haproxy服务监听地址和端口
#       option  httpchk GET /index.html         ##指定http请求方法和默认文件
#       balance roundrobin                      ##指定轮询调度算法
#       server  inst1 192.168.100.155:80 check inter 2000 fall 3                ##定义web节点,检测心跳频率,单位为毫秒,定义检查节点最多失败次数
#       server  inst2 192.168.100.156:80 check inter 2000 fall 3##################有分离页面需求的配置##############
frontend http                           ##定义名称为httpbind *:80                       ##指定监听地址和端口acl linuxfan1 hdr_end(host) -i 192.168.31.253                ##指定类型为访问路径的域名,-i不区分大小写acl linuxfan2 hdr_end(host) -i www.ceshi.conacl linuxfan3 path_end -i .jsp .do .css .js                     ##指定请求文件格式为.jsp#acl linuxfan3 hdr_reg -i \.(css|png|jpg|jpeg|gif|ico|swf|xml|txt|pdf|do|jsp|js)$       ##调用正则表达式acl linuxfan4 path_end -i .html .css .png .jpg .jpeg .xml       ##指定请求文件格式为.htmlacl linuxfan5 path_beg -i /WebRoot                              ##指定访问URL中的路径,如http://www.linuxfan.cn/WebRoot/index.jspuse_backend dongtai if linuxfan1 linuxfan3use_backend dongtai if linuxfan2 linuxfan3use_backend dongtai if linuxfan1 linuxfan5 linuxfan3use_backend dongtai if linuxfan2 linuxfan5 linuxfan3default_backend jingtai                                 ##默认的请求使用backend dongtaibackend jingtai         ##定义backend :jingtaimode http                       ##定义模式balance roundrobin              ##定义调度算法为轮询server jingtai01 192.168.31.253:80 check inter 2000 fall 3             ##定义节点backend dongtaimode httpbalance roundrobinserver dongtai01 192.168.31.254:8080 check inter 2000 fall 3

部署nginx

创建目录

mkdir -p /usr/local/docker/nginx
vim docker-compose.yml
version: "3.0"
services:nginx:image: nginx:1.21.6restart: always#network_mode: "host"ports:- 80:80- 443:443volumes:- "./nginx/html:/usr/share/nginx/html"- "./nginx/conf.d:/etc/nginx/conf.d"- "./nginx/ssl:/etc/nginx/ssl"- "./nginx/logs:/var/log/nginx"

启动
image-20231008171725061

部署tomcat

创建目录,为了放置 Tomcat 的配置文件等

mkdir  bin  conf  docker-compose.yml  logs  webapps

先随便启动一个 tomcat 容器(用第一种方法,docker run),主要是为了获取 tomcat 容器内部的配置文件

#启动一个容器docker run -d --name tomcat tomcat# 查看 容器 获取容器IDdocker ps -a

其中将,容器内 tomcat 文件夹下的 conf bin logs webapps 里面的内容都拷贝到上面宿主机上创建的对应文件夹内。容器的文件拷贝到宿主机的命令如下:

# 注意!是在宿主机上执行这条命令。
docker cp 容器名:/usr/local/tomcat/webapps/* /usr/local/tomcat/webapps
其它文件夹内的内容也要这样拷贝到宿主机对应的文件夹内。

创建这个文件,docker-compose.yml

version: '3'
services:tomcat:user: rootrestart: alwayscontainer_name: tomcatimage: tomcatprivileged: trueenvironment:- TZ="Asia/Shanghai"ports:- 1002:8080volumes:- /usr/local/tomcat/webapps/:/usr/local/tomcat/webapps/- /usr/local/tomcat/conf:/usr/local/tomcat/conf- /usr/local/tomcat/logs:/usr/local/tomcat/logs- /usr/local/tomcat/bin:/usr/local/tomcat/bin- /etc/localtime:/etc/localtime

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/152615.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

macOS Sonoma 正式版系统已发布,macos14值得更新吗

北京时间9月27日macOS Sonoma 正式版系统发布,为 Mac 带来一系列丰富新功能:优化小组件、升级视频会议、沉浸式游戏体验等,最新macos14值得更新吗?这里根据我一个月的试用beta版本体验来分享一下。 我使用的是M1芯片的MacBook air…

TimeWise-Jira工时管理插件6.0.0发布!对比测评某知名工时插件,谁的数据处理性能更胜一筹?

近期,龙智自研插件TimeWise for Jira(Jira工时管理插件)发布了重要更新——6.0.0版本。这次升级主要针对报表性能做出了优化与提升。 对于企业级应用而言,具高效处理大规模数据的能力是最为关键。龙智深谙国内用户需求&#xff0…

基础算法之——【动态规划之路径问题】1

今天更新动态规划路径问题1,后续会继续更新其他有关动态规划的问题!动态规划的路径问题,顾名思义,就是和路径相关的问题。当然,我们是从最简单的找路径开始! 动态规划的使用方法: 1.确定状态并…

冲刺第十五届蓝桥杯P0003倍数问题

文章目录 原题连接解析代码 原题连接 倍数问题 解析 需要找出三个数字,三个数字之和是k的倍数,并且这个数字需要最大,很容易想到的就是将数组进行倒叙排序,然后三层for循环解决问题,但是这样会导致**时间复杂度很高…

机器学习基础-数据分析:房价预测

mac设置中文字体 #要设置下面两行才能显示中文 Arial Unicode MS 为字体 plt.rcParams[font.sans-serif] [Arial Unicode MS] #设置图片大小 plt.figure(figsize(20, 11), dpi200)pie官方文档 总体代码 python import pandas as pd import numpy as np import matplotlib.…

194、SpringBoot --- 下载和安装 Erlang 、 RabbitMQ

本节要点: 一些命令: 小黑窗输入: rabbitmq-plugins enable rabbitmq_management 启动控制台插件 rabbitmq-server 启动rabbitMQ服务器 管理员启动小黑窗: rabbitmq-service install 添加rabbitMQ为本地服务 启动浏览器访问 htt…

九大装修收纳空间的设计,收藏备用!福州中宅装饰,福州装修

如果房子面积不大,收纳设计就显得非常重要。其实装修房子中很多地方都可以做收纳,九大空间每一处都可以放下你的东西,让你摆脱收纳烦恼。 收纳空间少的话,装修完后住久了怕会乱成一窝,因此装修的时候,收纳…

react create-react-app v5配置 px2rem (不暴露 eject方式)

环境信息: create-react-app v5 “react”: “^18.2.0” “postcss-plugin-px2rem”: “^0.8.1” 配置步骤: 不暴露 eject 配置自己的webpack: 1.下载react-app-rewired 和 customize-cra-5 npm install react-app-rewired customize-cra…

对图像中边、线、点的检测(支持平面/鱼眼/球面相机)附源码

前言 图像的线段检测是计算机视觉和遥感技术中的一个基本问题,可广泛应用于三维重建和 SLAM 。虽然许多先进方法在线段检测方面表现出了良好的性能,但对未去畸变原始图像的线 段检测仍然是一个具有挑战性的问题。此外,对于畸变和无畸变的图像都缺乏统一的…

SuperMap iServer 影像服务自动守护能力

作者:Carlo 目录 一、监控目录能力1、影像服务创建后,在添加影像集合时配置自动追加2、配置集合基本信息3、开启自动追加4、效果展示 二、静默切片支持计划任务1、配置影像集合静默切片任务2、配置瓦片方案3、配置静默切片计划任务4、效果展示 背景&…

微信小程序开发缺少中间证书问题(腾讯云、阿里云等做服务器)

项目使用nginx做负载均衡后,不再采用原来直接用jar包的方式直接开启对应端口,所以需要重新从云服务器上下载证书,写入到Nginx读取的证书路径上即可。

戏剧影视设计制作虚拟仿真培训课件提升学生的参与感

说起影视制作,知名的影视制片人寥寥无几,大多数人还在依靠摄影机拍摄实景或搭建实体场景来不断精进场景布局和导演效果,成本高、投入人员多且周期长,随着VR虚拟现实技术的不断发展,利用VR模拟仿真技术进行影视制作实操…

Arcgis快速计算NDVI

Arcgis快速计算NDVI 一、问题描述 如何使用Arcgis像ENVI一样波段计算NDVI的值,事实上,Arcgis更快速一些。 二、操作步骤 首先准备好影像 打开窗口-影像分析 点击左上角 点击确定 (发现自己使用的遥感影像不对劲,是计算好了…

JSP旅游平台管理

本系统采用基于JAVA语言实现、架构模式选择B/S架构,Tomcat7.0及以上作为运行服务器支持,基于JAVA、JSP等主要技术和框架设计,idea作为开发环境,数据库采用MYSQL5.7以上。 开发环境: JDK版本:JDK1.8 服务器&…

主从复制的实现方案

读写分离技术架构图 实现读写分离的技术架构选型如上;需要自己去实践主从复制;为了节省资源,当然系统并发量并没有那么大,选择一主一丛;强制读主库,为了解决主从同步延迟带来的影响;对于实时性要求高的强制读主库;GTID 主要是一种事务标识技术…

ToBeWritten之车联网安全中常见的TOP 10漏洞

也许每个人出生的时候都以为这世界都是为他一个人而存在的,当他发现自己错的时候,他便开始长大 少走了弯路,也就错过了风景,无论如何,感谢经历 转移发布平台通知:将不再在CSDN博客发布新文章,敬…

微信公众号运营一般怎么收费?建议收藏

在互联网时代,公众号运营已经成为企业、政府和个人进行品牌宣传、产品推广、客户服务的重要手段。通过公众号,企业可以与用户建立直接的联系,了解用户需求,提升用户满意度。微信公众号运营一般怎么收费?今天伯乐网络传…

文件扫描模块

文章目录 前言文件扫描模块设计初级扫描方案一实现单线程扫描整合扫描步骤 设计初级扫描方案二周期性扫描 总结 前言 我们这个模块考虑的是数据库里面的内容从哪里获取。 获取完成后,这时候,我们就需要把目录里面文件/子文件都获取出来,并存入数据库。 文件扫描模…

NPM- 滚动进度可视化插件

目录 progress-scroll 滚动进度插件📦 体验🌍 安装🛹 注入🎉 配置 🤖 使用方法📝 使用示例 Demo.vue 💌 原理 progress-scroll 滚动进度插件 🤖🎉🎉 您的 进度…

Spring Cloud学习笔记【分布式请求链路跟踪-Sleuth】

文章目录 Spring Cloud Sleuth概述概述主要功能:Sleuth中的术语和相关概念官网 zipkin配置下载运行zipkin下载zipkin运行 demo配置服务提供者 lf-userpom.xmlapplication.ymlUserController 服务调用者 lf-authpom.xmlapplication.ymlAuthController 测试 Spring Cl…