您的位置:首页 > 游戏 > 手游 > mysql实现MHA

mysql实现MHA

2024/11/16 13:26:10 来源:https://blog.csdn.net/ibertine_P/article/details/140960478  浏览:    关键词:mysql实现MHA

一、什么是MHA

高可用模式下的故障切换,基于主从复制,单点故障和主从复制不能切换的问题,架构需要奇数台,至少需要3台,故障切换过程0-30秒,vip地址,根据vip地址所在的主机,确定主备。

主和备不是优先级确定的,主从复制的时候就确定了主,备是在MHA的过程中确定。

MHA NODE 数据节点,每台mysql和管理服务器都要安装 监控服务器状态以及收集数据

MHA的manager管理节点

管理mysql的高可用集群

可以单独部署在一台独立的服务器,也可以部署多个

实现主备之间切换,主发生故障,切换到备。

二、MHA的特点

1、manager来实现主备切换

2、数据同步还是依靠二进制日志,最大程度上保证数据的完整

3、半同步的方式,实现数据的完整性

一主多从架构,至少需要三台

三、MHA的原理

1、主宕机,保存二进制日志

2、备从主的二进制日志中更新,更新到自己的slave日志当中

3、备成主,同步到master的二进制文件

4、其他备服务器从新的主同步数据

5、原来的备成为主,其他的备服务器都和主继续同步数据

6、主备切换之后,mysql模式下,一般是继续以现有主作为集群的主,重新把服务器加入到集群

四、实现

实验思路: 1.MHA架构 1)数据库安装 2)一主两从 3)MHA搭建

2.故障模拟 1)主库失效 2)备选主库成为主库 3)原故障主库恢复重新加入到MHA成为从库

MHA manager 节点服务器:CentOS7.6(64 位) manager/192.168.10.41 ,安装MHA node 和 manager 组件 Master 节点服务器:CentOS7.6(64 位) mysql1/192.168.10.61 ,安装mysql5.7、MHA node 组件 Slave1 节点服务器:CentOS7.6(64 位) mysql2/192.168.10.62 ,安装mysql5.7、MHA node 组件 Slave2 节点服务器:CentOS7.6(64 位) mysql3/192.168.10.63 ,安装mysql5.7、MHA node 组件

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

1.Master、Slave1、Slave2 节点上安装 mysql5.7

2.修改 Master、Slave1、Slave2 节点的主机名

hostnamectl set-hostname Master
hostnamectl set-hostname Slave1
hostnamectl set-hostname Slave2

3.修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf

##Master 节点##
vim /etc/my.cnf
---------------------
[mysqld]
server-id = 1
log_bin = master-bin
log-slave-updates = true
relay_log_recovery = 1
systemctl restart mysqld

log_bin = master-bin: 用于记录主服务器上的更改操作的日志文件。 这个配置用于主服务器,将生成的二进制日志文件保存为"master-bin"(可以是其他自定义的名称)。

log-slave-updates = true: 从服务器是否要记录它自己执行的更改操作到自己的二进制日志文件中。 设置为"true"表示从服务器会记录自己执行的更改操作,将其写入从服务器的二进制日志文件中。

relay_log_recovery=1: 用于配置从服务器在启动时是否执行中继日志的恢复操作。设置为 1 表示启用中继日志的恢复,通常在从服务器出现异常或崩溃后重启时使用。 这有助于确保从服务器能够从主服务器的二进制日志中正确地读取和应用中继日志,以保持数据一致性。

##Slave1 节点##
vim /etc/my.cnf
server-id = 2 	#三台服务器的 server-id 不能一样
log_bin = master-bin
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
relay_log_recovery = 1systemctl restart mysqld

log_bin = master-bin: 指定主服务器(master)的二进制日志文件名称,用于记录主服务器上的更改操作的日志文件。

relay-log = relay-log-bin: 指定从服务器的中继日志文件名称,即用于记录主服务器的二进制日志在从服务器上执行的中继日志。 从服务器会读取主服务器的二进制日志并将其记录到中继日志中。这个配置用于从服务器。

relay-log-index = slave-relay-bin.index: 指定从服务器的中继日志索引文件的名称,该索引文件用于跟踪中继日志文件的位置和顺序。 通过这个索引文件,从服务器知道哪个中继日志文件是下一个要读取和执行的。这个配置用于从服务器。

relay_log_recovery=1: 用于配置从服务器在启动时是否执行中继日志的恢复操作。设置为 1 表示启用中继日志的恢复,通常在从服务器出现异常或崩溃后重启时使用。 这有助于确保从服务器能够从主服务器的二进制日志中正确地读取和应用中继日志,以保持数据一致性

###Slave2 节点##
vim /etc/my.cnf						#三台服务器的 server-id 不能一样
server-id = 3 
relay-log = relay-log-bin
relay-log-index = slave-relay-bin.index
relay_log_recovery = 1systemctl restart mysqld

#slave2不用设置master,指定主的备服务器为slave1即可。

4.在 Master、Slave1、Slave2 节点上都创建两个软链接

ln -s /usr/local/mysql/bin/mysql /usr/sbin/
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/

5.配置 mysql 一主两从

(1)所有数据库节点进行 mysql 授权

mysql -uroot -p123456

从数据库同步使用

#创建用户
CREATE USER 'myslave'@'192.168.10.%' IDENTIFIED WITH mysql_native_password BY '123456';
#赋权远程连接权限
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.10.%';
#manager 使用
CREATE USER 'mha'@'192.168.10.%' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'192.168.10.%' WITH GRANT OPTION;
#防止从库通过主机名连接不上主库
CREATE USER 'mha'@'master' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'master';CREATE USER 'mha'@'slave1' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave1';CREATE USER 'mha'@'slave2' IDENTIFIED WITH mysql_native_password BY 'manager';
GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave2';
#刷新
flush privileges;

(2)在 Master 节点查看二进制文件和同步点

show master status;

(3)在 Slave1、Slave2 节点执行同步操作

 

change master to master_host='192.168.10.61',master_user='myslave',master_password='123456',master_log_file='master-bin.000001',master_log_pos=2917; 
#启动
start slave;

(4)在 Slave1、Slave2 节点查看数据同步结果

show slave status\G;

//确保 IO 和 SQL 线程都是 Yes,代表同步正常。
Slave_IO_Running: Yes
Slave_SQL_Running: Yes

(5)两个从库必须设置为只读模式

#开启只读模式
set global read_only=1;

(6)插入数据测试数据库同步

##在 Master 主库插入条数据,测试是否同步##
create database test_db;
use test_db;
create table test(id int);
insert into test(id) values (1);

 

6.安装 MHA 软件

(1)所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源

yum install epel-release --nogpgcheck -y
#依赖环境
yum install -y perl-DBD-MySQL \
perl-Config-Tiny \
perl-Log-Dispatch \
perl-Parallel-ForkManager \
perl-ExtUtils-CBuilder \
perl-ExtUtils-MakeMaker \
perl-CPAN

(2)安装 MHA 软件包,先在所有服务器上必须先安装 node 组件

对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。 在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件, 因为 manager 依赖 node 组件。

cd /opt
tar zxvf mha4mysql-node-0.57.tar.gz
cd mha4mysql-node-0.57
perl Makefile.PL
make && make install

(3)在 MHA manager 节点上安装 manager 组件

cd /opt
tar zxvf mha4mysql-manager-0.57.tar.gz
cd mha4mysql-manager-0.57
perl Makefile.PL
make && make install

#manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个: masterha_check_ssh 所有的数据库节点和管理节点通过ssh来进行互相通信检查 MHA 的 SSH 配置状况(免密登录) masterha_check_repl 检查 MySQL 复制状况(数据同步) masterha_manger 启动 manager文件的脚本 masterha_check_status 检测当前 MHA 运行状态 masterha_master_monitor 检测 master 是否宕机 masterha_master_switch 控制故障转移(自动或者 手动) masterha_conf_host 添加或删除配置的 server 信息 masterha_stop 关闭manager

#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本 (这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下:

save_binary_logs 保存和复制 master 的二进制日志

apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave

filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具)

purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)

7.在所有服务器上配置无密码认证

(1)在 manager 节点上配置到所有数据库节点的无密码认证

ssh-keygen -t rsa 				#一路按回车键
ssh-copy-id 192.168.10.61
ssh-copy-id 192.168.10.62
ssh-copy-id 192.168.10.63

(2)在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证

ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.62
ssh-copy-id 192.168.10.63

(3)在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证

ssh-keygen -t rsa #一路按回车键
ssh-copy-id 192.168.10.61
ssh-copy-id 192.168.10.63

(4)在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证

ssh-keygen -t rsa
ssh-copy-id 192.168.10.61
ssh-copy-id 192.168.10.62

8.在 manager 节点上配置 MHA

(1)在 manager 节点上复制相关脚本到/usr/local/bin 目录

cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
//拷贝后会有四个执行文件
cd  /usr/local/bin/scripts/
master_ip_failover  		#自动切换时 VIP 管理的脚本
master_ip_online_change 	#在线切换时 vip 的管理
power_manager 				#故障发生后关闭主机的脚本
send_report 				#因故障切换后发送报警的脚本

(2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录

 这里使用master_ip_failover脚本管理 VIP 和故障切换

cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin

(3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数)

vim /usr/local/bin/master_ip_failover
--------------------------------------------
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';use Getopt::Long;
my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);
my $vip = '192.168.10.100'; #指定vip的地址
my $brdc = '192.168.10.255'; #指定vip的广播地址
my $ifdev = 'ens33'; #指定vip绑定的网卡
my $key = '1'; #指定vip绑定的虚拟网卡序列号
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
#代表此变量值为ifconfig ens33:1 192.168.10.100
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
#代表此变量值为ifconfig ens33:1 192.168.10.100 down
my $exit_code = 0;#指定退出状态码为0
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);exit &main();sub main {
print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
### A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}

管理 MySQL 主从复制设置中的虚拟 IP 故障切换而设计的,可能用于主服务器需要切换到另一台服务器的情景。

它使用 SSH 在远程服务器上执行命令来控制虚拟 IP 地址

(4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器

mkdir /etc/masterha
cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterhavim /etc/masterha/app1.cnf						#删除原有内容,直接复制并修改节点服务器的IP地址
[server default]
manager_log=/var/log/masterha/app1/manager.log
manager_workdir=/var/log/masterha/app1
master_binlog_dir=/usr/local/mysql/data
master_ip_failover_script=/usr/local/bin/master_ip_failover
master_ip_online_change_script=/usr/local/bin/master_ip_online_change
password=manager
ping_interval=1
remote_workdir=/tmp
repl_password=123456
repl_user=myslave
secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.233.22 -s 192.168.233.23 
#从对主监听
shutdown_script=""
ssh_user=root
user=mha

管理节点服务器,清空添加

[server1]
hostname=192.168.233.21 
#主服务器
port=3306[server2]
candidate_master=1   
check_repl_delay=0
hostname=192.168.233.22  
#备用主服务器
port=3306[server3]
hostname=192.168.233.23  
#从服务器2
port=3306

9.第一次配置需要在 Master 节点上手动开启虚拟IP

ifconfig ens33:1 192.168.10.100/24

10.在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。

masterha_check_ssh -conf=/etc/masterha/app1.cnf

11.在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。

masterha_check_repl -conf=/etc/masterha/app1.cnf

12.在 manager 节点上启动 MHA

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
#生产中java 服务启动的方式
nohup  java -jar  微服务名称-( war jar)&   nohup java -jar test.jar &
tail -f nohup.out
#生产中启动jar包的方式#限制资源启动:
nohup java -Xmx512m -Xms256m -Xss256k -XX:+UseParallelGC -jar test.jar &
-Xmx512m: 设置 Java 虚拟机最大堆内存为 512 MB。
-Xms256m: 设置 Java 虚拟机初始堆内存为 256 MB。
-Xss256k: 设置线程堆栈大小为 256 KB。
-XX:+UseParallelGC: 启用并行垃圾回收器。
--remove_dead_master_conf:该参数代表当发生主从切换后,老的主库的 ip 将会从配置文件中移除。
--manger_log:日志存放位置。
--ignore_last_failover:在缺省情况下,如果 MHA 检测到连续发生宕机,
且两次宕机间隔不足 8 小时的话,则不会进行 Failover, 
之所以这样限制是为了避免 ping-pong 效应。
该参数代表忽略上次 MHA 触发切换产生的文件,
默认情况下,MHA 发生切换后会在日志记录,
也就是上面设置的日志app1.failover.complete文件,
下次再次切换的时候如果发现该目录下存在该文件将不允许触发切换,除非在第一次切换后收到删除该文件,为了方便,这里设置为--ignore_last_failover。

13.查看 MHA 状态,可以看到当前的 master 是 master 节点。

masterha_check_status --conf=/etc/masterha/app1.cnf

14.查看 MHA 日志,也以看到当前的 master 是 192.168.10.61,如下所示。

cat /var/log/masterha/app1/manager.log | grep "current master"

15.查看master 的 VIP 地址 192.168.10.100 是否存在,这个 VIP 地址不会因为 manager 节点停止 MHA 服务而消失。

#在 manager进行日志查询
tail -f /var/log/masterha/app1/manager.log

 关闭master节点上的数据库

systemctl stop mysqld.service 

查看日志信息,自动切换

查看master的高可用ip地址消失  

高可用ip切换到新的主  

在新的主上创建数据看能不能数据同步,架构不变  

16.实现故障恢复

 1、在manager节点上修改管理配置文件

vim /etc/masterha/app1.cnf 

主配置文件消失

恢复  

2、修改原来主的配置文件,表明现在变成一个备服务器  

vim /etc/my.cnf

重启  

systemctl restart mysqld

 3、修改原来备

#关闭只读模式
set global read_only=0;
#查看状态
show master status;

进入原来的主数据库  

#重置
reset slave;
change master to master_host='192.168.10.62',master_user='myslave',master_password='123456',master_log_file='master-bin.000002',master_log_pos=628; 
#重启
start slave;
show slave status/G;

查看 MHA 状态,可以看到当前的 master 是 master 节点  

在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示  

在新的主的数据库创建一个xy103数据库  

create database xy103;

成功恢复

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com