Linux系统----------探索mysql数据库MHA高可用

目录

一、MHA概述

1.1 什么是 MHA

1.2MHA 的组成

1.2.1MHA Node(数据节点)

1.2.2MHA Manager(管理节点)

 1.3MHA 的特点

1.4MHA工作原理

1.5数据同步的方式

1.5.1同步复制

1.5.2异步复制

1.5.3半同步复制

二、搭建 MySQL MHA

2.1环境准备

2.2 配置主从复制

2.2.1所有服务器关闭防火墙与selinux

2.2.2修改 Master、Slave1、Slave2 节点的主机名

2.2.3修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

主服务节点

从服务节点

2.2.4在 Master、Slave1、Slave2 节点上都创建两个软链接

2.2.5登录数据库进行授权

在 Master、Slave1、Slave2 节点上都进行主从同步的授权

2.2.6配置主从同步

①在 Master 节点查看二进制文件和同步点

 ②在 Slave1、Slave2 节点都执行同步操作:

一般Slave_IO_Running:No的可能性

2.2.7在 Master 主库插入条数据,测试是否同步

2.3配置MHA所有组件

2.3.1所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源

2.3.2所有服务器安装MHA依赖的环境

2.3.3安装 MHA 软件包,必须先在所有服务器上安装 node 组件 

2.3.4最后在 MHA manager 节点上安装 manager 组件

2.3.5在所有服务器上配置无密码认证

2.3.6在 manager 节点上配置 MHA

2.3.7第一次配置需要在 Master 节点上手动开启虚拟IP地址

2.3.8在 manager 节点上测试 ssh 无密码认证

2.3.9在 manager 节点上测试 mysql 主从连接情况

2.3.10在 manager 节点上启动 MHA

2.3.11在 manager 节点上查看 MHA 状态 和 MHA 日志,可以看到 master的地址

2.3.12查看master 的 VIP 地址 192.168.10.200 是否存在

2.4故障模拟

2.5故障修复

2.5.1修复原来的master(即修复原来的主节点)

2.5.2修复主从

2.5.3在 manager 节点上修改配置文件app1.cnf

2.5.4在 manager 节点上启动 MHA


一、MHA概述

1.1 什么是 MHA

  • MHA(MasterHigh Availability)是一套优秀的MySQL高可用环境下故障切换和主从复制的软件
  • MHA 的出现就是解决MySQL 单点的问题。
  • MySQL故障切换过程中,MHA能做到0-30秒内自动完成故障切换操作。
  • MHA能在故障切换的过程中最大程度上保证数据的一致性,以达到真正意义上的高可用。

MHA作用 是mysql数据库 高可用 +故障切换

MHA核心部分:(MHA组件)

manager主要功能 管理,做MHA的启动,关闭启动和检测mysql各种健康检查

node 在发生故障时候,尽可能保存二进制日志,并实现故障切换(VIP地址飘移)

1.2MHA 的组成

MHA由两部分构成:MHA Manager(管理节点)和MHA Node(数据节点)。在主从复制的MySQL集群中,MHA Manager负责监控主节点的健康状况,当主节点出现故障时,MHA Manager会自动选举出一个从节点升级为主节点,并协调其余从节点重新连接至新的主节点,实现无缝的故障转移。

1.2.1MHA Node(数据节点)

MHA Node 运行在每台 MySQL 服务器上

  • 功能:数据节点是实际存储数据的MySQL数据库服务器,通常包括主服务器(master)和从服务器(slave)。
  • 原理:数据节点负责处理实际的数据库读写操作,主服务器用于接收写操作并将数据变更复制到从服务器上,从服务器则用于处理读操作。
  • 配置:MHA通过管理节点管理数据节点之间的复制关系和故障转移操作,确保数据节点的高可用性和数据一致性。

1.2.2MHA Manager(管理节点)

  • MHA Manager 可以单独部署在一台独立的机器上,管理多个 master-slave 集群;也可以部署在一台 slave 节点上。
  • MHA Manager 会定时探测集群中的 master 节点。
  • 当 master 出现故障时,它可以自动将最新数据的 slave 提升为新的 master然后将所有其他的 slave 重新指向新的 master。整个故障转移过程对应用程序完全透明。
  • 功能:管理节点负责监控数据库集群中的主从复制拓扑结构,监控主服务器的健康状况,以及在主服务器发生故障时执行自动故障转移操作。
  • 原理:管理节点通过定期检查数据库服务器的可用性和复制状态来监控数据库集群。当检测到主服务器故障时,管理节点会自动将一个从服务器提升为新的主服务器,确保数据库系统的高可用性。同时管理节点随之关闭。
  • 配置:在MHA中,通常会有一个或多个管理节点,一般部署在一台独立的机器上,也可以部署在一台slave上。

注意:管理节点依赖于数据节点,部署 MHA 需要先安装 Node节点 再安装 Manager 节点

 1.3MHA 的特点

●自动故障切换过程中,MHA试图从宕机的主服务器上保存二进制日志,最大程度的保证数据不丢失
●使用半同步复制,可以大大降低数据丢失的风险,如果只有一个slave已经收到了最新的二进制日志,MHA可以将最新的二进制日志应用于其他所有的slave服务器上,因此可以保证所有节点的数据一致性
●目前MHA支持一主多从架构,最少三台服务,即一主两从

1.4MHA工作原理

1、从宕机崩溃的master 保存二进制日志事件(binlog  events);
2、识别含有最新的更新 slave 日志
3、应用差异的中继日志(relay log)到其他的slave
4、应用从master保存的二进制日志事件
5、提升一个 salve 为新的master
6、使其他的slave连接行的master 进行复制。

① MHA 能够自动监控数据库集群中的主服务器状态,分配 vip(虚拟IP) 给集群,默认绑定 master

② 当主服务器发生故障或不可访问时,从宕机崩溃的master 保存二进制日志事件(binlog  events),并应用差异的中继日志(relay log)到其他的 slave

③ 然后会将指定备用切换的 slave 或者识别与 master 数据偏移量最少的(即数据最全、最接近主服务器)从服务器作为新的主服务器,此时 vip 会绑定新的 master,应用从 master 保存的二进制日志事件

④ 当原主服务器恢复正常时,MHA 可以协助将其重新加入数据库集群,作为新的从服务器实现主从复制关系,实现故障后的平稳过渡

1.5数据同步的方式

数据同步的方式即主从复制策略   分为:半同步复制、同步复制、异步复制

1.5.1同步复制

客户端提交專务时候 master 要等所有从服务器同步完 才返回给客户端

1.5.2异步复制

只要master 完成 客户端的提交事务就会返回给客户端信息 ,并不关心从slave是否同步到数据

1.5.3半同步复制

​​​​​​​

客户端提交事务的时候 master 会等其中一个 slave从 同步完数据之后 会返回给客户端

一般采用的是半同步复制

二、搭建 MySQL MHA

MHA :为了解决的了是故障切换、数据尽可能的保存,以及所有节点日志的一致性

2.1环境准备

           Master 服务器     master       192.168.246.7             MHA node 组件
           Slave1 服务器     slave1       192.168.246.10             MHA node 组件
           Slave2 服务器     slave2       192.168.246.11             MHA node 组件

MHA manager 服务器    manager    192.168.246.12       MHA node 和 manager 组件

1)MHA架构:①数据库安装 ②一主两从 ③MHA搭建

2)故障模拟:①主库失效 ②备选主库成为主库 ③原故障主库恢复重新加入到MHA成为从库

2.2 配置主从复制

2.2.1所有服务器关闭防火墙与selinux

Master、Slave1、Slave2 节点安装的是mysql5.7

2.2.2修改 Master、Slave1、Slave2 节点的主机名

#master主节点
[root@localhost ~]#hostnamectl set-hostname master
[root@localhost ~]#su
[root@master ~]#   #slave1主节点
[root@slave1 ~]#hostnamectl set-hostname slave1
[root@slave1 ~]#su
[root@slave1 ~]##slave2主节点 
[root@localhost ~]#hostnamectl set-hostname slave2
[root@localhost ~]#su
[root@slave2 ~]#

2.2.3修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

#Master 节点
vim /etc/my.cnf
[mysqld]
server-id = 1
log_bin = master-bin    #开启二进制日志
log-slave-updates = true    #允许slave从master复制数据时可以写入到自己的二进制日志
-------------------------------------------- ​
systemctl restart mysqld     #重启mysql​
#Slave1节点vim /etc/my.cnf
[mysqld]
server-id = 2               #三台服务器的 server-id 不能相同
log_bin = master-bin        #开启中继日志
relay-log = relay-log-bin   
relay-log-index = slave-relay-bin.index
----------------------------------------------------- ​
systemctl restart mysqld​
#Slave2节点vim /etc/my.cnf
[mysqld]
server-id = 3               #三台服务器的 server-id 不能相同
log_bin = master-bin        #开启中继日志
relay-log = relay-log-bin   #添加定义中继日志文件位置与名称一般与二进制文件在同一目录
relay-log-index = slave-relay-bin.index 
------------------------------------------------
systemctl restart mysqld     #重启mysql
主服务节点

server-id = 1
log_bin = master-bin
log-slave-updates = true

从服务节点

server-id = 2
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

从服务器2:

server-id = 3
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index

2.2.4在 Master、Slave1、Slave2 节点上都创建两个软链接

ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
ls /usr/sbin/mysql*     #查看软连接
/usr/sbin/mysql  /usr/sbin/mysqlbinlog

2.2.5登录数据库进行授权

在 Master、Slave1、Slave2 节点上都进行主从同步的授权
grant replication slave on *.* to 'myslave'@'192.168.246.%' identified by '123123';		
grant all privileges on *.* to 'mha'@'192.168.246.%' identified by 'manager';		
grant all privileges on *.* to 'mha'@'master' identified by 'manager';			
grant all privileges on *.* to 'mha'@'slave1' identified by 'manager';
grant all privileges on *.* to 'mha'@'slave2' identified by 'manager';
flush privileges;

主服务器授权

2.2.6配置主从同步

①在 Master 节点查看二进制文件和同步点
#在 Master 节点查看二进制文件和同步点(即偏移量)
show master status;

 ②在 Slave1、Slave2 节点都执行同步操作:
#在 Slave1、Slave2 节点执行同步操作change master to
master_host='192.168.246.7',
master_user='myslave',
master_password='123123',
master_log_file='master-bin.000001',
master_log_pos=1747;------------------------------------------------ ​
start slave;     #开启同步,如有报错执行 reset slave;
------------------------------------ ​show slave status\G   #在 Slave1、Slave2 查看节点状态#确保 IO 和 SQL 线程都是 Yes,代表同步正常。Slave_IO_Running: YesSlave_SQL_Running: Yes

slave1配置

slave2配置

一般Slave_IO_Running:No的可能性
  • 网络不通
  • my.cnf配置有问题
  • 密码、file文件名、pos偏移量不对
  • 防火墙没有关闭

两个从数据库设置为只读模式

 set global read_only=1;#两个从库必须设置为只读模式

2.2.7在 Master 主库插入条数据,测试是否同步

#在Master主库插入数据,测试数据库同步##
mysql> create database anhui;
Query OK, 1 row affected (0.00 sec)mysql> use anhui;
Database changed
mysql> create table wuhu(id int(3),name varchar(6));
Query OK, 0 rows affected (0.02 sec)mysql> insert into wuhu values(1,'lirh');
Query OK, 1 row affected (0.14 sec)mysql> select * from wuhu;
+------+------+
| id   | name |
+------+------+
|    1 | lirh |
+------+------+
1 row in set (0.00 sec)mysql>

从数据库中验证数据同步

#从数据库中验证是否同步成功
show databases;
use anhui;
show tables;
select * from wuhu;

2.3配置MHA所有组件

2.3.1所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
yum install epel-release --nogpgcheck -y  #首先安装epel 源yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN#安装 MHA依赖环境

所有服务器上首先安装epel源

yum install epel-release --nogpgcheck -y

2.3.2所有服务器安装MHA依赖的环境

对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。
在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件,因为 manager 依赖 node 组件

2.3.3安装 MHA 软件包,必须先在所有服务器上安装 node 组件 

在所有服务器上安装 node 组件

#将安装包上传到/opt/目录中,解压安装node组件
cd /opt/
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install

四台机器都分别拖入安装包

#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本

(这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:

save_binary_logs 保存和复制 master 的二进制日志
apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave
filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)
purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
2.3.4最后在 MHA manager 节点上安装 manager 组件
在 MHA manager 节点上安装 manager 组件##(manager组件依赖node 组件)
[root@manager mha4mysql-node-0.57]#cd /opt
[root@manager opt]#ls
mha4mysql-manager-0.57.tar.gz  mha4mysql-node-0.57  mha4mysql-node-0.57.tar.gz  rh
[root@manager opt]#tar xf mha4mysql-manager-0.57.tar.gz
[root@manager opt]#cd mha4mysql-manager-0.57/
[root@manager mha4mysql-manager-0.57]#perl Makefile.PL
[root@manager mha4mysql-manager-0.57]#make && make install

#manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个:

masterha_check_ssh 检查 MHA 的 SSH 配置状况
masterha_check_repl 检查 MySQL 复制状况
masterha_manger 启动 manager的脚本
masterha_check_status 检测当前 MHA 运行状态
masterha_master_monitor 检测 master 是否宕机
masterha_master_switch 控制故障转移(自动或者 手动)
masterha_conf_host 添加或删除配置的 server 信息
masterha_stop  关闭manager
2.3.5在所有服务器上配置无密码认证

(1)在 manager 节点上配置到所有数据库节点的无密码认证

ssh-keygen -t rsa             #一路按回车键,生成密钥。"-t rsa"指定密钥的类型。
ssh-copy-id 192.168.246.7    #将公钥传给所有数据库节点,形成免密码连接登录
ssh-copy-id 192.168.246.8
ssh-copy-id 192.168.246.10

(2)在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证

[root@master mha4mysql-node-0.57]#ssh-keygen -t rsa
[root@master mha4mysql-node-0.57]#ssh-copy-id 192.168.246.10
[root@master mha4mysql-node-0.57]#ssh-copy-id 192.168.246.11

(3)在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证

[root@slave1 mha4mysql-node-0.57]#ssh-keygen -t rsa
[root@slave1 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.7
[root@slave1 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.11

(4)在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证

[root@slave2 mha4mysql-node-0.57]#ssh-keygen -t rsa
[root@slave2 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.7
[root@slave2 mha4mysql-node-0.57]#ssh-copy-id 192.168.246.10
2.3.6在 manager 节点上配置 MHA

(1)在 manager 节点上复制相关脚本到/usr/local/bin 目录

在 manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
#拷贝后会有四个执行文件
ll /usr/local/bin/scripts/
------------------------------------------------------ ​master_ip_failover          #自动切换时 VIP 的管理脚本master_ip_online_change     #在线切换时 VIP 的管理脚本power_manager               #故障发生后关闭主机的脚本send_report                 #因故障切换后发送报警的脚本

[root@manager mha4mysql-manager-0.57]#cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin/

(2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录,这里使用master_ip_failover脚本来管理 VIP 和故障切换

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin/

(3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数)

修改/usr/local/bin/master_ip_failover 脚本,删除原有内容,所有内容全都重新添加

进入之后要先输入:set paste 然后才可以粘贴,不然顺序会乱,可以去掉#号键​​​​​​​

#修改内容如下:

(删除原有内容,直接复制并修改vip相关参数

可在拷贝前输入 :set paste 解决vim粘贴乱序问题)

修改/usr/local/bin/master_ip_failover 脚本,删除原有内容,所有内容全都重新添加

#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';use Getopt::Long;my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
#############################添加内容部分#########################################
my $vip = '192.168.246.100';                                            #指定vip的地址
my $brdc = '192.168.246.255';                                           #指定vip的广播地址
my $ifdev = 'ens33';                                                    #指定vip绑定的网卡
my $key = '1';                                                  #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";   #代表此变量值为ifconfig ens33:1 192.168.10.100
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";    #代表此变量值为ifconfig ens33:1 192.168.10.100 down
my $exit_code = 0;                                              #指定退出状态码为0
#my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -
q -A -c 1 -I $ifdev $vip;iptables -F;";
#my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key";
##################################################################################
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);exit &main();sub main {print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";if ( $command eq "stop" || $command eq "stopssh" ) {my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
## A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --
orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

(4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器

[root@manager mha4mysql-manager-0.57]#mkdir /etc/masterha
[root@manager mha4mysql-manager-0.57]#cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha
[root@manager mha4mysql-manager-0.57]#vim /etc/masterha/app1.cnf

#删除原有内容,直接复制并修改节点服务器的IP地址
 

vim /etc/masterha/app1.cnf    #删除原有文件,重新编辑[server default]
manager_log=/var/log/masterha/app1/manager.log            #manager日志
manager_workdir=/var/log/masterha/app1                    #manager工作目录
master_binlog_dir=/usr/local/mysql/data                   #master保存binlog的位置,这里的路径要与master里配置的binlog的路径一致,以便MHA能找到
master_ip_failover_script=/usr/local/bin/master_ip_failover #设置自动failover时候的切换脚本,也就是上面的那个脚本
master_ip_online_change_script=/usr/local/bin/master_ip_online_change #设置手动切换时候的切换脚本
password=abc123  #设置mysql用户的密码,这个密码是前文中创建监控用户的那个密码
user=my          #设置mysql用户,这个用户是前文中创建监控用户的用户
ping_interval=1  #设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp #设置远端mysql在发生切换时binlog的保存位置
repl_password=123123 #主从复制时设置的密码
repl_user=myslave  #主从复制时设置的用户
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.246.10 -s 192.168.246.11   #指定检查的从服务器IP地址
shutdown_script=""  #设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机防止发生脑裂,这里没有使用)
ssh_user=root       #设置ssh的登录用户名[server1]
hostname=192.168.246.7
port=3306[server2]
candidate_master=1  
#设置为候选master,设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个从库不是集群中最新的slavecheck_repl_delay=0
#默认情况下如果一个slave落后master 超过100M的relay logs的话,MHA将不会选择该slave作为一个新的master, 因为对于这个slave的恢复需要花费很长时间;通过设置check_repl_delay=0,MHA触发切换在选择一个新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换的过程中一定是新的master
hostname=192.168.246.10
port=3306[server3]
hostname=192.168.246.11
port=3306

[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123123
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.246.10 -s 192.168.246.11
shutdown_script=""
ssh_user=root
user=mha[server1]
hostname=192.168.246.7
port=3306[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.246.10
port=3306[server3]
hostname=192.168.246.11
port=3306
2.3.7第一次配置需要在 Master 节点上手动开启虚拟IP地址
[root@master opt]#/sbin/ifconfig ens33:1 192.168.246.100/24
#注意与配置文件对应
参见上文
[root@master opt]#/sbin/ifconfig ens33:1 192.168.246.100/24

2.3.8在 manager 节点上测试 ssh 无密码认证

在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

masterha_check_ssh -conf=/etc/masterha/app1.cnf

2.3.9在 manager 节点上测试 mysql 主从连接情况

在 manager 节点上测试 mysql 主从连接情况,最后出现MySQL Replication Health is OK 字样说明正常。如下所示。

输入它查看情况

[root@manager mha4mysql-manager-0.57]#masterha_check_repl -conf=/etc/masterha/app1.cnf
 

如果这里是,is not ok

就把所有主从服务器里面这一行default-character-set=utf8都注释了,然后重启mysql服务,然后再去manager服务器上面,输入masterha_check_repl -conf=/etc/masterha/app1.cnf

测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常

2.3.10在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

如果使用ps aux|grep manager出现如下情况:

然后我们分别去master和slave1、slave2去修改,修改/etc/my.cnf

然后再去manager服务器查看,就好了

#生产中java 服务启动的方式
nohup  java -jar  微服务名称-( war jar)   &

--remove_dead_master_conf   #该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
--manger_log                #日志存放位置。
--ignore_last_failover      #在缺省情况下,如果 MHA 检测到连续发生宕机,且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 之所以这样限制是为了避免 ping-pong 效应(来回切换导致脑裂)。该参数代表忽略上次 MHA 触发切换产生的文件,默认情况下,MHA 发生切换后会在 app1.failover.complete 日志文件中记录,下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换, 除非在第一次切换后删除该文件,为了方便,这里设置为--ignore_last_failover。​●使用&后台运行程序:结果会输出到终端;使用Ctrl+C发送SIGINT信号,程序免疫;关闭session发送SIGHUP信号,程序关闭。●使用nohup运行程序:结果默认会输出到nohup.out;使用Ctrl+C发送SIGINT信号,程序关闭;关闭session发送SIGHUP信号,程序免疫。●使用nohup和&配合来启动程序 nohup ./test &:同时免疫SIGINT和SIGHUP信号。
2.3.11在 manager 节点上查看 MHA 状态 和 MHA 日志,可以看到 master的地址
masterha_check_status --conf=/etc/masterha/app1.cnf#查看 MHA 状态,可以看到当前的 master 是 master 节点。。
cat /var/log/masterha/app1/manager.log | grep "current master"#查看 MHA 日志,也以看到当前的 master 是 192.168.246.7如下所示。

2.3.12查看master 的 VIP 地址 192.168.10.200 是否存在

这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。

ifconfig//若要关闭 manager 服务,可以使用如下命令。
masterha_stop --conf=/etc/masterha/app1.cnf
或者可以直接采用 kill 进程 ID 的方式关闭。

2.4故障模拟

#在 manager 节点上监控观察日志记录

tail -f /var/log/masterha/app1/manager.log

#在 Master 节点 master 上停止mysql服务

再去manager服务器上的日志查看

查看 slave1 是否接管 VIP,使用ifconfig

#正常自动切换一次后,MHA 进程会退出。HMA 会自动修改 app1.cnf 文件内容,将宕机的 master 节点删除。查看 slave1 是否接管 VIP

查看manager节点的配置文件

MHA 会自动修改 app1.cnf 文件内容,将宕机的 mysql1 节点删除。

2.5故障修复

2.5.1修复原来的master(即修复原来的主节点)

2.5.2修复主从

在新的主库服务器 slave1 中查看二进制日志文件和同步点

show master status;

在原主库服务器 master执行同步操作,同步现在主库中的数据

​#在原主库服务器master 执行同步操作
change master to master_host='192.168.246.10',master_user='myslave',master_password='123123',master_log_file='master-bin.000002',master_log_pos=3031;start slave;
2.5.3在 manager 节点上修改配置文件app1.cnf

重新把三台mysql节点服务器这个记录添加进去,因为它检测到主节点失效时候会自动删除主节点

将slave1添加为新的候选master

[server default]
..........
ping_interval=1
remote_workdir=/tmp
repl_password=123123
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.246.11 -s 192.168.246.7
shutdown_script=""
ssh_user=root
user=mha[server1]
hostname=192.168.246.10
port=3306[server2]
candidate_master=1
check_repl_delay=0
hostname=192.168.246.7
port=3306[server3]
hostname=192.168.246.11
port=3306
2.5.4在 manager 节点上启动 MHA
 nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &

然后可以在新主192.168.246.10里插入数据,去原主(192.168.246.7)查看数据,就可以查看到数据同步了


#解决中英字不兼容报错的问题
dos2unix /usr/local/bin/master_ip_failover 


总结:
1、mha 

① 作用:mysql的高可用 + 故障切换
② 核心部分:
    MHA组件:manager:主要的功能:做MHA 启动、关闭管理和检测mysql各种健康状态
    node:在发生故障时,尽可能的保存二进制日志,并且实现故障切换(VIP地址飘逸)
③ MHA需要配置的文件(2个):
        master ip failover:命令工具 ,定义的是基于VIP的检测和故障转移 (VIP从master----->新的 master)
        app1.conf:mha的主要配置文件,主要定义了mha的工作目录、日志    
                    mysal二进制日志位置
                    使用mha的登录mysql的用户、密码使用从服务器
                    身份同步master的账号、密码   (五个)
                    
④ 故障切换mha会做哪些动作:

1)mha会多次尝试检测master的存活状态
2)mhah会多次尝试、尽可能的保存master的二进制日志
3)mha会根据app1.cnf中的配置部分,进行从服务器------》 主服务器的位置
4)mha最后会将master的VIP地址切换到从服务器的位置
5)mha再选择完行的master周,会在其余的salve上执行change master操作,指向性的master, 来保证Mysql的集群的健康性


2、mha故障问题

① 软件连接
② 免交互
③ 五个账号授权(其中三个账号是测试环境需要做的)
④ 初次运行MHA功能是,需要临时添加虚拟IP
⑤ 配置文件--效验 (master_ip_failover 1个故障切换的脚本,app1.cnf mha的主配置文件)
⑥ 先安装node节点 再安装主节点    


3、故障切换备选主库的算法:

1.一般判断从库的是从(position/GTID)判断优劣,数据有差异,最接近于master的slave,成为备选主。
2.数据一致的情况下,按照配置文件顺序,选择备选主库。
3.设定有权重(candidate_master=1),按照权重强制指定备选主。
(1)默认情况下如果一个slave落后master 100M的relay logs的话,即使有权重,也会失效。
(2)如果check_repl_delay=0的话,即使落后很多日志,也强制选择其为备选主。
 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/295468.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ios 之 netty版本swiftNio(TLSHandler 创建)

SwiftNio 简介 用于高性能协议服务器和客户端的事件驱动、无阻塞的网络应用程序框架。 SwiftNIO是一个跨平台异步事件驱动的网络应用程序框架&#xff0c;用于快速开发可维护的高性能协议服务器和客户端。 这就像Netty&#xff0c;但是为Swift写的。 Xcode引入swiftNio 在实…

蓝桥杯第八届c++大学B组详解

目录 1.购物单 2.等差素数列 3.承压计算 4.方格分割 5.日期问题 6.包子凑数 7.全球变暖 8.k倍区间 1.购物单 题目解析&#xff1a;就是将折扣字符串转化为数字&#xff0c;进行相加求和。 #include<iostream> #include<string> #include<cmath> usin…

git源码泄露

Git 源码泄露 开发人员会使用 git 进行版本控制&#xff0c;对站点自动部署。但如果配置不当&#xff0c;可能会将 .git 文件夹直接部署到线上环境&#xff0c;这就引起了 git 泄露漏洞&#xff0c;我们可以利用这个漏洞直接获得网页源码。 确定是否存在泄漏 &#xff08;1&…

自动驾驶的世界模型:综述

自动驾驶的世界模型&#xff1a;综述 附赠自动驾驶学习资料和量产经验&#xff1a;链接 24年3月澳门大学和夏威夷大学的论文“World Models for Autonomous Driving: An Initial Survey”。 在快速发展的自动驾驶领域&#xff0c;准确预测未来事件并评估其影响的能力对安全性…

视频汇聚/安防监控/视频存储EasyCVR平台EasyPlayer播放器更新:新增【性能面板】

视频汇聚/安防监控/视频存储平台EasyCVR基于云边端架构&#xff0c;可以在复杂的网络环境中快速、灵活部署&#xff0c;平台视频能力丰富&#xff0c;可以提供实时远程视频监控、视频录像、录像回放与存储、告警、语音对讲、云台控制、平台级联、磁盘阵列存储、视频集中存储、云…

从零开始,构建智慧企业:人事管理软件新升级全攻略

本文从智能化人事管理的六大核心要素探讨如何打造一个适应现代企业需求的智能化人事管理系统&#xff0c;并介绍几款市场上表现优秀的人事管理软件。 随着我国经济的发展&#xff0c;企业全球化是大势所趋&#xff0c;难免会出现跨国员工数量增加、办公地点分散、跨部门协作等…

重学SpringBoot3-SpringBoot可执行JAR的原因

更多SpringBoot3内容请关注我的专栏&#xff1a;《SpringBoot3》 期待您的点赞&#x1f44d;收藏⭐评论✍ 重学SpringBoot3-SpringBoot可执行JAR的原因 Spring Boot可执行JAR的结构打包运行JAR 包内部结构 工作原理优点总结 Spring Boot 的一个核心特性是它的可执行 JAR&#x…

Canvas实现数字电子时钟(带粒子掉落效果)

前置知识 Canvas实现简易数字电子时钟 效果 逻辑代码 <!DOCTYPE html> <html lang"en"><head><meta charset"UTF-8"><title>粒子时钟</title><style>body {margin: 0;overflow: hidden}</style> </…

Redis开源协议调整,我们怎么办?

2024年3月20日, Redis官方宣布&#xff0c;从 Redis 7.4版本开始&#xff0c;Redis将获得源可用许可证 ( RSALv2 ) 和服务器端公共许可证 ( SSPLv1 ) 的双重许可&#xff0c;时间点恰逢刚刚完成最新一轮融资&#xff0c;宣布的时机耐人寻味。 Redis协议调整&#xff0c;对云计算…

Nginx三大常用功能“反向代理,负载均衡,动静分离”

注意&#xff1a;以下案例在Windows系统计算机作为宿主机&#xff0c;Linux CentOS 作为虚拟机的环境中实现 一&#xff0c;Nginx配置实例-反向代理 1.反向代理 案例一 实现效果&#xff1a;使用nginx反向代理&#xff0c;访问 www.123.com 直接跳转到127.0.0.1:8080 准备工…

Golang Context是什么

一、这篇文章我们简要讨论Golang的Context有什么用 1、首先说一下Context的基本作用&#xff0c;然后在讨论他的实现 (1)数据传递&#xff0c;子Context只能看到自己的和父Context的数据&#xff0c;子Context是不能看到孙Context添加的数据。 (2)父子协程的协同&#xff0c;比…

vue两个特性和什么是MVVM

一、什么是vue 1.构建用户界面 用vue往html页面中填充数据&#xff0c;非常的方便 2.框架 框架是一套线成的解决方案 vue的指令、组件&#xff08;是对ui结构的复用&#xff09;、路由、vuex 二、vue的特性 1.数据驱动视图 2.双向数据绑定 1.数据驱动视图 数据的变化会驱动…

面试题 之 vue

1.vue里怎样实现双向数据绑定&#xff1f; Viewmodel 中的Domlisteners 工具会帮我们检测页面上Dom元素的变化&#xff0c;如果有变化&#xff0c;则更改Model中的数据&#xff0c;更新model中的数据时&#xff0c;数据事件绑定工具会帮我们更新页面中的Dom元素 2.Vue的响应式原…

idea快速找到maven中冲突的依赖,解决依赖冲突

红色实线&#xff1a;冲突&#xff0c;红色虚线&#xff1a;依赖于同一个包的多版本 选择包&#xff0c;右键Excluede&#xff0c;排除 问题原因: 一个项目中需要jar包A和jar包B,而jar包A和jar包B都需要依赖jar包C,但A需要1.2.16版本的C,B需要1.2.17版本的C,这时候就可能会产…

升降梯人数识别摄像机

升降梯人数识别摄像机是一种智能监测设备&#xff0c;主要用于实时识别和计算升降梯内乘客的数量。通过搭载先进的图像识别技术和人工智能算法&#xff0c;该设备可以准确监测乘客进出数量&#xff0c;提供重要数据支持和信息反馈&#xff0c;帮助管理人员有效管理升降梯运行&a…

Java基础知识总结(第八篇):集合:Collection(List、Set)、Map、Collections 工具类

声明: 1. 本文根据韩顺平老师教学视频自行整理&#xff0c;以便记忆 2. 若有错误不当之处, 请指出 系列文章目录 Java基础知识总结&#xff08;第一篇&#xff09;&#xff1a;基础语法 Java基础知识总结&#xff08;第二篇&#xff09;&#x…

外汇110:交易中,是否真的存在确定性?

我们看问题的角度不同&#xff0c;得到的结果必然也是不一样的。我们不能否认任何一种可能性&#xff0c;但一切需要从逻辑出发。交易中&#xff0c;最大的确定性就是市场是不确定的&#xff0c;什么样的行情都可能发生。当然&#xff0c;绝对的确定性是不存在的&#xff0c;但…

九州未来深度参与元宇宙标准会议周

近日&#xff0c;元宇宙标准化工作组成立大会暨第一次全体委员会会议在浙江青田成功举办。本次会议由元宇宙标准化工作组主办&#xff0c;中国电子技术标准化研究院、中共青田县委 青田县人民政府承办&#xff0c;涵盖了《元宇宙参考架构》国家标准编制会、《工业元宇宙参考架构…

基于SpringBoot和Vue的房产销售系统的设计与实现

今天要和大家聊的是一款基于SpringBoot和Vue的房产销售系统的设计与实现 &#xff01;&#xff01;&#xff01; 有需要的小伙伴可以通过文章末尾名片咨询我哦&#xff01;&#xff01;&#xff01; &#x1f495;&#x1f495;作者&#xff1a;李同学 &#x1f495;&#x1f…

家庭影院触摸屏中应用的电容式触摸芯片

家庭影院的主要组成部分包括显示设备、音响设备、信号源和接线设备等。其中&#xff0c;显示设备通常采用高清电视或投影仪&#xff0c;音响设备包括功放、音箱、低音炮等&#xff0c;信号源可以是蓝光光盘、游戏机、有线电视、网络电视等多种媒体设备。 家庭影院的影像信号通…