华子目录
- `MHA`概述
- 为什么要用`MHA`
- 什么是`MHA`
- `MHA`的组成
- `MHA`的特点
- 故障切换备选主库的算法
- `MHA`工作原理
- `MHA`环境搭建
- 环境准备
- 开始部署`MHA`
- `MHA软件`使用介绍
- 配置`MHA`的`管理环境`
- 创建`MHA管理`的`模板文件`
- 测试
- 模拟故障`MySQL-master`切换
- `手动切换`(在`master`存活状态下`切换`)
- `手动切换`(在`master`死亡状态下`切换`)
- `自动切换`
- `MHA`的`故障切换过程`
- 为`MHA`添加`vip功能`
- 测试1(`自动故障切换`)
- 测试2 (通过`vip`登录`数据库`)
MHA
概述
为什么要用MHA
- 解决
MySQL集群中master
的单点故障
问题
什么是MHA
MHA
(Master High Availability
)是一套优秀
的MySQL高可用
环境下故障切换
和主从复制
的软件
MHA
的出现就是解决MySQL 中master单点故障
的问题
MySQL故障切换
过程中,MHA
能做到0-30秒内
自动完成故障切换
操作MHA
能在故障切换
的过程中最大程度
上保证数据
的一致性
,以达到真正意义
上的高可用
MHA
的组成
MHA
由两部分
组成:MHA Manager
(管理节点
)MHA Node
(数据库节点
)MHA Manager
可以单独
部署在一台独立的机器
上管理
多个master-slave集群
,也可以部署
在一台slave节点
上(MHA
是独立出来
的一台主机
,只能在企业7
中做)MHA Manager
会定时探测集群
中的master节点
- 当
master
出现故障
时,它可以自动
将最新数据
的slave
提升为新
的master
,然后将所有
其他的slave
重新指向新
的master
MHA-master
是可以是一台单独
的服务器
,node
是MySQL服务器
(包括mysql-master,mysql-slave
)
MHA
的特点
自动故障切换
过程中,MHA
从宕机
的主服务器上
保存二进制日志
,最大程度
的保证
数据不丢失
- 使用
半同步复制
,可以大大
降低数据丢失的风险
,如果只有
一个slave
已经收到了最新
的二进制日志
,MHA
可以将最新
的二进制日志
应用于其他
所有的slave服务器
上,因此可以保证所有节点
的数据一致性
- 目前
MHA
支持一主多从
架构,最少三台服务
,即一主两从
故障切换备选主库的算法
- 一般判断
从库
的是从
(position/gtid
)判断优劣
,数据有差异
,最接近于master
的slave
,成为备选主
数据一致
的情况下
,按照配置文件顺序
,选择备选主库
- 设定
有权重
(candidate_master=1
),按照权重
强制指定备选主
默认情况
下如果一个slave
落后master 100M
的relay logs
的话
,即使有权重
,也会失效
- 如果
check_repl_delay=0
的话
,即使落后很多日志
,也强制选择
其为备选主
MHA
工作原理
- 目前
MHA
主要支持一主多从
的架构
,要搭建MHA
,要求一个复制集群
必须最少
有3台数据库服务器
,一主二从
,即一台
充当Master
,一台
充当备用Master
,另一台
充当从库
MHA Node
运行在每台MySQL服务器
上MHA Manager
会定时探测
集群中的master节点
- 当
master
出现故障
时,它可以自动将最新数据
的slave
提升为新
的master
- 然后将
所有
其他的slave
重新指向新
的master
,VIP
自动漂移
到新
的master
整个故障
转移过程对应用程序
完全透明
MHA
环境搭建
环境准备
- 准备一台
MHA主机
,ip
:172.25.254.50/24
,主机名
:mha.org
- 做
hosts解析
[root@mha ~]# vim /etc/hosts
[root@mysql-node1 ~]# vim /etc/hosts
[root@mysql-node2 ~]# vim /etc/hosts
[root@mysql-node3 ~]# vim /etc/hosts
mha
和node1,node2,node3
之间做免密认证
#mha制作公私钥
[root@mha ~]# ssh-keygen -t rsa
#将mha的公钥传给node1,node2,node3
[root@mha ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub root@172.25.254.10[root@mha ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub root@172.25.254.20[root@mha ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub root@172.25.254.30
#此时免密登录完成
- 修改
node1,node2,node3
中的/etc/my.cnf
文件实验要求
:node1
为master
,node2
为备用master
,node3
为slave
[root@mysql-node1 ~]# vim /etc/my.cnf
[mysqld]
datadir=/data/mysql
socket=/data/mysql/mysql.sock
symbolic-links=0
server-id=10
log-bin=master-bin #开启binlog
gtid_mode=ON
enforce-gtid-consistency=ON
[root@mysql-node2 ~]# vim /etc/my.cnf
[mysqld]
datadir=/data/mysql
socket=/data/mysql/mysql.sock
symbolic-links=0
server-id=10
log-bin=master-bin #开启binlog
gtid_mode=ON
enforce-gtid-consistency=ON
[root@mysql-node3 ~]# vim /etc/my.cnf
[mysqld]
datadir=/data/mysql
socket=/data/mysql/mysql.sock
symbolic-links=0
server-id=30
gtid_mode=ON
enforce-gtid-consistency=ON
因为
node2
可能会成为master
,所以,node2
要开启binlog功能
。由于node3
是slave
,不会
被选举为master
,所以不用
开启binlog
node1,node2,node3
重新部署MySQL
[root@mysql-node1 ~]# /etc/init.d/mysqld stop[root@mysql-node1 ~]# rm -rf /data/mysql/*[root@mysql-node1 ~]# mysqld --user=mysql --initialize[root@mysql-node1 ~]# mysql -uroot -p'p5Y0jI%DMp9h'mysql> alter user root@localhost identified by "123456";
node2,node3
同上
node1
上建立数据同步用户
并进行主从复制
的授权
,并开启半同步模式
#node1上建立同步用户
mysql> create user huazi@'%' identified by "123456";
#授权
mysql> grant replication slave on *.* to huazi@'%';
#半同步设置
mysql> install plugin rpl_semi_sync_master soname 'semisync_master.so';#开启半同步
mysql> set global rpl_semi_sync_master_enabled=1;mysql> show master status\G;
#node2
mysql> change master to \-> master_host='172.25.254.10',-> master_user='huazi',-> master_password='123456',-> master_auto_position=1;mysql> install plugin rpl_semi_sync_slave soname 'semisync_slave.so';mysql> set global rpl_semi_sync_slave_enabled=1;mysql> start slave;mysql> show slave status\G;
#node3上
mysql> change master to \-> master_host='172.25.254.10',-> master_user='huazi',-> master_password='123456',-> master_auto_position=1;mysql> install plugin rpl_semi_sync_slave soname 'semisync_slave.so';mysql> set global rpl_semi_sync_slave_enabled=1;mysql> start slave;mysql> show slave status\G;
- 在
MySQL-master
和备用master
上创建登录用户
#node1上
mysql> create user root@'%' identified by "123456";mysql> grant all on *.* to root@'%';
由于主从复制,我们在
node1
上的创建了登录用户
,node2
上也自然会同步到
#node上
mysql> select user,host from mysql.user;
+---------------+-----------+
| user | host |
+---------------+-----------+
| huazi | % |
| root | % |
| mysql.session | localhost |
| mysql.sys | localhost |
| root | localhost |
+---------------+-----------+#node2上
mysql> select user,host from mysql.user;
+---------------+-----------+
| user | host |
+---------------+-----------+
| huazi | % |
| root | % |
| mysql.session | localhost |
| mysql.sys | localhost |
| root | localhost |
+---------------+-----------+#node3上
mysql> select user,host from mysql.user;
+---------------+-----------+
| user | host |
+---------------+-----------+
| huazi | % |
| root | % |
| mysql.session | localhost |
| mysql.sys | localhost |
| root | localhost |
+---------------+-----------+
开始部署MHA
- 上传
MHA包
到mha.org
主机
解压
[root@mha ~]# unzip MHA-7.zip
[root@mha ~]# cd MHA-7/
[root@mha MHA-7]# ls
mha4mysql-manager-0.58-0.el7.centos.noarch.rpm
mha4mysql-manager-0.58.tar.gz
mha4mysql-node-0.58-0.el7.centos.noarch.rpm
perl-Config-Tiny-2.14-7.el7.noarch.rpm
perl-Email-Date-Format-1.002-15.el7.noarch.rpm
perl-Log-Dispatch-2.41-1.el7.1.noarch.rpm
perl-Mail-Sender-0.8.23-1.el7.noarch.rpm
perl-Mail-Sendmail-0.79-21.el7.noarch.rpm
perl-MIME-Lite-3.030-1.el7.noarch.rpm
perl-MIME-Types-1.38-2.el7.noarch.rpm
perl-Net-Telnet-3.03-19.el7.noarch.rpm
perl-Parallel-ForkManager-1.18-2.el7.noarch.rpm
安装
[root@mha MHA-7]# yum install *.rpm -y
- 将
mha4mysql-node-0.58-0.el7.centos.noarch.rpm
包发送给所有mysql服务器
[root@mha MHA-7]# rsync mha4mysql-node-0.58-0.el7.centos.noarch.rpm root@172.25.254.10:/root/[root@mha MHA-7]# rsync mha4mysql-node-0.58-0.el7.centos.noarch.rpm root@172.25.254.20:/root/[root@mha MHA-7]# rsync mha4mysql-node-0.58-0.el7.centos.noarch.rpm root@172.25.254.30:/root/
node1,node2,node3
安装mha4mysql-node-0.58-0.el7.centos.noarch.rpm
#node1上安装
[root@mysql-node1 ~]# yum install mha4mysql-node-0.58-0.el7.centos.noarch.rpm -y
#node2上安装
[root@mysql-node2 ~]# yum install mha4mysql-node-0.58-0.el7.centos.noarch.rpm -y
#node3上安装
[root@mysql-node3 ~]# yum install mha4mysql-node-0.58-0.el7.centos.noarch.rpm -y
MHA软件
使用介绍
manager工具包
主要包括以下几个工具
masterha_check_ssh
检查MHA的ssh配置状况
masterha_check_repl
检查MySQL复制状况
masterha_manger
启动MHA,进行监控MySQL-master的状态
masterha_check_status
检查当前MHA运行状态
masterha_master_monitor
检查master是否宕机
masterha_master_switch
手动切换MySQL-master
masterha_conf_host
添加或删除配置的server信息
node
工具包(通常由MHA主机
直接调用,无需人为执行
)
save_binary_logs
保存和复制master的二进制日志
apply_diff_relay_logs
识别差异中的中继日志事件并将其差异的事件应用于其他的slave
filter_mysqlbinlog
去除不必要的rollback事件(MHA已不再使用这个工具)
purge_relay_logs
清除中继日志(不会阻塞sql线程)
配置MHA
的管理环境
#创建MHA配置文件存储位置
[root@mha ~]# mkdir /etc/masterha/
[root@mha ~]# masterha_manager --help
Usage:masterha_manager --global_conf=/etc/masterha_default.cnf--conf=/usr/local/masterha/conf/app1.cnfSee online reference(http://code.google.com/p/mysql-master-ha/wiki/masterha_manager) fordetails.
--global-conf
是MHA的全局配置文件
,记录公共设定
--conf
是MHA的子配置文件
,不同管理配置文件
,记录各自配置
创建MHA管理
的模板文件
[root@mha MHA-7]# tar -zxf mha4mysql-manager-0.58.tar.gz[root@mha MHA-7]# cd mha4mysql-manager-0.58/[root@mha mha4mysql-manager-0.58]# ls -F
AUTHORS COPYING lib/ MANIFEST README samples/ tests/
bin/ debian/ Makefile.PL* MANIFEST.SKIP rpm/ t/[root@mha mha4mysql-manager-0.58]# cd samples/
[root@mha samples]# ls
conf scripts
[root@mha samples]# cd conf/
[root@mha conf]# ls
app1.cnf masterha_default.cnf#将两个文件中的内容合并为一个文件,并写到/etc/masterha/app1.conf文件中
[root@mha conf]# cat masterha_default.cnf app1.cnf > /etc/masterha/app1.conf
- 修改
app1.conf
的内容
[root@mha conf]# cd /etc/masterha/
[server default]
user=root #MySQL中用于登录的用户
password=123456 #用户密码
ssh_user=root #node1,node2,node3中用户ssh登录的用户
repl_user=huazi #MySQL用户数据同步的用户
repl_password=123456 #用户密码
master_binlog_dir= /data/mysql #主库二进制日志的存储目录
remote_workdir=/tmp #在远程服务器上执行命令时的工作目录
secondary_check_script= masterha_secondary_check -s 172.25.254.10 -s 172.25.254.11 #此参数使为了提供冗余检测,方式是mha主机网络自身的问题无法连接数据库节点,第二个应为集群之外的主机
ping_interval=3 #MHA Manager检测从库存活状态的间隔(秒)
# master_ip_failover_script= /script/masterha/master_ip_failover #发生故障后调用的脚本,用来迁移vip
# shutdown_script= /script/masterha/power_manager #电源管理脚本
# report_script= /script/masterha/send_report #当发生故障后用此脚本发邮件或者告警通知
# master_ip_online_change_script= /script/masterha/master_ip_online_change #在线切换时调用的vip迁移脚本,手动
[server default]
manager_workdir=/etc/masterha #MHA-master的工作目录
manager_log=/etc/masterha/manager.log #MHA Manager的日志文件路径[server1]
hostname=172.25.254.10
candidate_master=1 #表示该服务器可以作为候选主库
check_repl_delay=0 #复制延迟检查阈值,0表示不进行延迟检查[server2]
hostname=172.25.254.20
candidate_master=1 #表示该服务器可以作为候选主库
check_repl_delay=0 #复制延迟检查阈值,0表示不进行延迟检查[server3]
hostname=172.25.254.30
no_master=1 #表示该服务器不会被选为主库
check_repl_delay=0
,默认情况
下如果一个slave
落后master 100M
的relay-log
的话,MHA
将不会
选择该slave
作为一个新
的master
,因为对于这个slave
的恢复
需要花费很长时间
,通过设置check_repl_delay=0
,MHA
触发切换在选择一个新
的master
的时候将会忽略复制延时
,这个参数
对于设置了candidate_master=1
的主机
非常有用
,因为这个候选主
在切换
的过程中
一定是新
的master
- 在
node1,node2,node3
上任意一个主机上
创建一个子接口
#这里我们在node3上创建一个子接口
[root@mysql-node3 ~]# ip address add 172.25.254.11/24 dev eth0
- 将
MHA
的ssh私钥
发送给node1,node2,node3
[root@mha ~]# rsync ~/.ssh/id_rsa root@172.25.254.10:/root/.ssh/[root@mha ~]# rsync ~/.ssh/id_rsa root@172.25.254.20:/root/.ssh/[root@mha ~]# rsync ~/.ssh/id_rsa root@172.25.254.30:/root/.ssh/
测试
#ssh检测
[root@mha ~]# masterha_check_ssh --conf=/etc/masterha/app1.conf
#repl检测
[root@mha ~]# masterha_check_repl --conf=/etc/masterha/app1.conf
模拟故障MySQL-master
切换
手动切换
时,可以不删除锁文件
,不设置--ignore_last_state
参数,但是自动
一定要删除锁文件
手动切换
(在master
存活状态下切换
)
#现在的master是node1
mysql> show master status\G;
*************************** 1. row ***************************File: master-bin.000002Position: 1279Binlog_Do_DB:Binlog_Ignore_DB:
Executed_Gtid_Set: 85cf422c-b472-11ef-be1a-000c2928b963:1-5
手动切换
(在MHA
上做)
[root@mha ~]# masterha_master_switch \
> --conf=/etc/masterha/app1.conf \
> --master_state=alive \ #表示node1为存活状态
> --new_master_host=172.25.254.20 \
> --new_master_port=3306 \
> --orig_master_is_new_slave \ #原来的master变为slave
> --running_updates_limit=10000 #切换的超时时间为10秒
#一直yes回车
- 查看
node1
的状态
mysql> show slave status\G;
- 查看
node2
的状态
- 查看
node3
的状态
- 再
手动
将master
切换为node1
[root@mha ~]# masterha_master_switch \
> --conf=/etc/masterha/app1.conf \
> --master_state=alive \
> --new_master_host=172.25.254.10 \
> --new_master_port=3306 \
> --orig_master_is_new_slave \
> --running_updates_limit=10000
- 查看
node1
的状态
- 查看
node2
的状态
- 查看
node3
的状态
手动切换
(在master
死亡状态下切换
)
- 将
node1
挂掉
[root@mysql-node1 ~]# /etc/init.d/mysqld stop
手动切换
(在MHA
上切换)
[root@mha ~]# masterha_master_switch \
> --master_state=dead \ #原master的状态
> --conf=/etc/masterha/app1.conf \
> --dead_master_host=172.25.254.10 \
> --dead_master_port=3306 \
> --new_master_host=172.25.254.20 \
> --new_master_port=3306 \
> --ignore_last_failove #因为自动切换会生成锁文件
--ignore_last_failove
表示忽略
在/etc/masterha/目录
中在切换过程
中生成的锁文件
恢复故障
[root@mysql-node1 ~]# /etc/init.d/mysqld startmysql> change master to \-> master_host='172.25.254.20',-> master_user='huazi',-> master_password='123456',-> master_auto_position=1;mysql> start slave;
- 查看
node1
的状态
- 查看
node2
的状态
- 查看
node3
的状态
手动切换
回node1
[root@mha ~]# masterha_master_switch \
> --conf=/etc/masterha/app1.conf \
> --master_state=alive \
> --new_master_host=172.25.254.10 \
> --new_master_port=3306 \
> --orig_master_is_new_slave \
> --running_updates_limit=10000
自动切换
[root@mha ~]# cd /etc/masterha/
[root@mha masterha]# ls
app1.conf app1.failover.complete
app1.failover.complete
是生成的锁文件
,在做自动切换前
,要删除这个锁文件
自动切换
时,一定要删除锁文件
,否则下一次自动切换
会失败
[root@mha masterha]# rm -rf app1.failover.complete
[root@mha masterha]# ls
app1.conf
- 对
MySQL-master
进行监控
(在MHA
上做)
[root@mha masterha]# masterha_manager --conf=/etc/masterha/app1.conf
Sun Dec 8 00:19:12 2024 - [warning] Global configuration file /etc/masterha_default.cnf not found. Skipping.
Sun Dec 8 00:19:12 2024 - [info] Reading application default configuration from /etc/masterha/app1.conf..
Sun Dec 8 00:19:12 2024 - [info] Reading server configuration from /etc/masterha/app1.conf..
#进程会一直运行着,等待着
- 停掉
node1
,因为node1
是master
[root@mysql-node1 ~]# /etc/init.d/mysql.server stop
- 发现
master
自动切换到了node2
- 发现
masterha_manager
的进程
也自动结束了
- 一次
故障监控
完masterha_manager进程
就结束了
- 发现
自动切换
时生成了日志manager.log
[root@mha masterha]# ls
app1.conf app1.failover.complete manager.log
恢复故障
[root@mysql-node1 ~]# /etc/init.d/mysqld start
自动切换
后,原来
的master
不会自动成为slave
,需要我们手动切换
[root@mysql-node1 ~]# mysql -uroot -p
Enter password:
mysql> show slave status\G;
Empty set (0.00 sec)#手动加入
mysql> change master to \-> master_host='172.25.254.20',-> master_user='huazi',-> master_password='123456',-> master_auto_position=1;mysql> start slave;mysql> show slave status\G;
MHA
的故障切换过程
配置文件
检查阶段,这个阶段
会检查
整个集群配置文件
中的配置内容
宕机
的master处理
,这个阶段
包括虚拟ip摘除
操作,主机关机操作
- 复制
dead master
和最新slave
相差的relay log
,并保存
到MHA Manger
具体的目录
下 识别
含有最新
更新的slave
- 应用
从master
保存的二进制日志事件
(binlog events
) 提升
一个slave
为新的master
进行复制
- 使
其他的slave
连接新的master
进行复制
为MHA
添加vip功能
- 防止
真实MySQL
主机切换
后,ip变化
,导致业务不通
上传两个脚本文件
master_ip_failover
是自动切换
使用的脚本
master_ip_online_change
是手动切换
使用的脚本
- 添加到
环境变量
中,并赋予可执行权限
[root@mha ~]# cp master_ip_* /usr/local/bin/[root@mha ~]# chmod +x /usr/local/bin/master_ip_*
- 修改
master_ip_failover
脚本内容
[root@mha ~]# vim /usr/local/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;my ($command, $ssh_user, $orig_master_host, $orig_master_ip,$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);my $vip = '172.25.254.100/24';
my $ssh_start_vip = "/sbin/ip addr add $vip dev eth0";
my $ssh_stop_vip = "/sbin/ip addr del $vip dev eth0";GetOptions('command=s' => \$command,'ssh_user=s' => \$ssh_user,'orig_master_host=s' => \$orig_master_host,'orig_master_ip=s' => \$orig_master_ip,'orig_master_port=i' => \$orig_master_port,'new_master_host=s' => \$new_master_host,'new_master_ip=s' => \$new_master_ip,'new_master_port=i' => \$new_master_port,
);exit &main();sub main {print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";if ( $command eq "stop" || $command eq "stopssh" ) {my $exit_code = 1;eval {print "Disabling the VIP on old master: $orig_master_host \n";&stop_vip();$exit_code = 0;};if ($@) {warn "Got Error: $@\n";exit $exit_code;}exit $exit_code;}elsif ( $command eq "start" ) {my $exit_code = 10;eval {print "Enabling the VIP - $vip on the new master - $new_master_host \n";&start_vip();$exit_code = 0;};if ($@) {warn $@;exit $exit_code;}exit $exit_code;}elsif ( $command eq "status" ) {print "Checking the Status of the script.. OK \n";exit 0;}else {&usage();exit 1;}
}sub start_vip() {`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {return 0 unless ($ssh_user);`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}sub usage {print"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
- 修改
master_ip_online_change
脚本内容
[root@mha ~]# vim /usr/local/bin/master_ip_online_change
#!/usr/bin/env perl
use strict;
use warnings FATAL =>'all';use Getopt::Long;my $vip = '172.25.254.100/24';
my $ssh_start_vip = "/sbin/ip addr add $vip dev eth0";
my $ssh_stop_vip = "/sbin/ip addr del $vip dev eth0";
my $exit_code = 0;my ($command, $orig_master_is_new_slave, $orig_master_host,$orig_master_ip, $orig_master_port, $orig_master_user,$orig_master_password, $orig_master_ssh_user, $new_master_host,$new_master_ip, $new_master_port, $new_master_user,$new_master_password, $new_master_ssh_user,
);
GetOptions('command=s' => \$command,'orig_master_is_new_slave' => \$orig_master_is_new_slave,'orig_master_host=s' => \$orig_master_host,'orig_master_ip=s' => \$orig_master_ip,'orig_master_port=i' => \$orig_master_port,'orig_master_user=s' => \$orig_master_user,'orig_master_password=s' => \$orig_master_password,'orig_master_ssh_user=s' => \$orig_master_ssh_user,'new_master_host=s' => \$new_master_host,'new_master_ip=s' => \$new_master_ip,'new_master_port=i' => \$new_master_port,'new_master_user=s' => \$new_master_user,'new_master_password=s' => \$new_master_password,'new_master_ssh_user=s' => \$new_master_ssh_user,
);exit &main();sub main {#print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";if ( $command eq "stop" || $command eq "stopssh" ) {# $orig_master_host, $orig_master_ip, $orig_master_port are passed.# If you manage master ip address at global catalog database,# invalidate orig_master_ip here.my $exit_code = 1;eval {print "\n\n\n***************************************************************\n";print "Disabling the VIP - $vip on old master: $orig_master_host\n";print "***************************************************************\n\n\n\n";
&stop_vip();$exit_code = 0;};if ($@) {warn "Got Error: $@\n";exit $exit_code;}exit $exit_code;
}
elsif ( $command eq "start" ) {# all arguments are passed.# If you manage master ip address at global catalog database,# activate new_master_ip here.# You can also grant write access (create user, set read_only=0, etc) here.
my $exit_code = 10;eval {print "\n\n\n***************************************************************\n";print "Enabling the VIP - $vip on new master: $new_master_host \n";print "***************************************************************\n\n\n\n";
&start_vip();$exit_code = 0;};if ($@) {warn $@;exit $exit_code;}exit $exit_code;
}
elsif ( $command eq "status" ) {print "Checking the Status of the script.. OK \n";`ssh $orig_master_ssh_user\@$orig_master_host \" $ssh_start_vip \"`;exit 0;
}
else {
&usage();exit 1;
}
}# A simple system call that enable the VIP on the new master
sub start_vip() {
`ssh $new_master_ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
# A simple system call that disable the VIP on the old_master
sub stop_vip() {
`ssh $orig_master_ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
- 打开
MHA
的vip功能
[root@mha ~]# vim /etc/masterha/app1.conf
vip
需要手动添加
(因为此时master
在node2
上,所以我们给node2
添加一个vip
)
[root@mysql-node2 ~]# ip address add 172.25.254.100/24 dev eth0
测试1(自动故障切换
)
- 监控
master
(在MHA
上做)
#先删除锁文件
[root@mha ~]# cd /etc/masterha/
[root@mha masterha]# ls
app1.conf app1.failover.complete manager.log
[root@mha masterha]# rm -rf app1.failover.complete
[root@mha ~]# masterha_manager --conf=/etc/masterha/app1.conf
Sun Dec 8 01:32:22 2024 - [warning] Global configuration file /etc/masterha_default.cnf not found. Skipping.
Sun Dec 8 01:32:22 2024 - [info] Reading application default configuration from /etc/masterha/app1.conf..
Sun Dec 8 01:32:22 2024 - [info] Reading server configuration from /etc/masterha/app1.conf..
- 在
node2
上模拟故障
#将node2上的MySQL停掉
[root@mysql-node2 ~]# /etc/init.d/mysql.server stop
- 发现原来在
node2
上的vip
移到了node1
上
node1
成为了master
恢复故障
[root@mysql-node2 ~]# /etc/init.d/mysql.server start
手动加入
[root@mysql-node2 ~]# mysql -uroot -p
Enter password:
mysql> show slave status\G;
Empty set (0.00 sec)#手动加入
mysql> change master to \-> master_host='172.25.254.10',-> master_user='huazi',-> master_password='123456',-> master_auto_position=1;mysql> start slave;
测试2 (通过vip
登录数据库
)
[root@mysql-node3 ~]# mysql -h 172.25.254.100 -uroot -p123456mysql> select @@server_id;
+-------------+
| @@server_id |
+-------------+
| 10 |
+-------------+