mysql+MHA高可用
阅读原文时间:2023年07月09日阅读:1

MHA(Master High Availability)目前在MySQL高可用方面是一个相对成熟的解决方案,它由日本DeNA公司youshimaton(现就职于Facebook公司)开发,是一套优秀的作为MySQL高可用性环境下故障切换和主从提升的高可用软件。在MySQL故障切换过程中,MHA能做到在0~30秒之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的高可用。

• 自动故障检测和自动故障转移
MHA能够在一个已经存在的复制环境中监控MySQL,当检测到Master故障后能够实现自动故障转移,通过鉴定出最“新”的Salve的relay log,并将其应用到所有的Slave,这样MHA就能够保证各个slave之间的数据一致性,即使有些slave在主库崩溃时还没有收到最新的relay log事件。一个slave节点能否成为候选的主节点可通过在配置文件中配置它的优先级。由于master能够保证各个slave之间的数据一致性,所以所有的slave节点都有希望成为主节点。在通常的replication环境中由于复制中断而极容易产生的数据一致性问题,在MHA中将不会发生。
• 交互式(手动)故障转移
MHA可以手动地实现故障转移,而不必去理会master的状态,即不监控master状态,确认故障发生后可通过MHA手动切换

• 在线切换Master到不同的主机
MHA能够在0.5-2秒内实现切换,0.5-2秒的写阻塞通常是可接受的,所以你甚至能在非维护期间就在线切换master。诸如升级到高版本,升级到更快的服务器之类的工作,将会变得更容易

优势:

• 自动故障转移快
• 主库崩溃不存在数据一致性问题
• 配置不需要对当前mysql环境做重大修改
• 不需要添加额外的服务器(仅一台manager就可管理上百个replication)
• 性能优秀,可工作在半同步复制和异步复制,当监控mysql状态时,仅需要每隔N秒向master发送ping包(默认3秒),所以对性能无影响。你可以理解为MHA的性能和简单的主从复制框架性能一样。
• 只要replication支持的存储引擎,MHA都支持,不会局限于innodb

组成:

MHA由Manager节点和Node节点组成。
MHA Manager可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台slave节点上。MHA Node运行在每台MySQL服务器上,MHA Manager会定时探测集群中的master节点,当master出现故障时,它可以自动将最新数据的slave提升为新的master,然后将所有其他的slave重新指向新的master。整个故障转移过程对应用程序完全透明

MHA工作原理:

• 从宕机崩溃的master保存二进制日志事件(binlog events);
• 识别含有最新更新的slave;
• 应用差异的中继日志(relay log)到其他的slave;
• 应用从master保存的二进制日志事件(binlog events);
• 提升一个slave为新的master;
• 使其他的slave连接新的master进行复制;

MHA安装 (以下以centos7为例)
准备四个节点,其中一个是管理节点,三个是一主两从的环境

1.更换yum源
备份本地yum源
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo_bak
获取阿里yum源配置文件
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
更新cache
yum makecache  
yum -y update   ##可无

2.下载软件包

链接:https://pan.baidu.com/s/1zguk1j07j6SCX0b3Fm60cw
提取码:voxa

3. 在所有节点上安装node节点

yum install –y perl-DBD-MySQL
rpm -ivh mha4mysql-node-0.54-0.noarch.rpm
echo "export PATH=$PATH:/usr/local/mysql/bin" >> /etc/bashrc ;source /etc/bashrc

4.在管理节点上安装manager节点
安装依赖 yum install –y perl-*
rpm -ivh mha4mysql-manager-0.55-0.el6.noarch.rpm报错如下
错误:依赖检测失败:
perl(Parallel::ForkManager) 被 mha4mysql-manager-0.55-0.el6.noarch 需要
yum install -y perl-Parallel-ForkManager 报错
没有可用软件包 perl-Parallel-ForkManager。
注:先:rpm -ivh epel-release-latest-7.noarch.rpm;然后在执行yum install -y perl-Parallel-ForkManager就可以了

5.• 在四个节点的/etc/hosts中添加主机内容:

ip+主机名
192.168.237.132 mha
192.168.237.128 master
192.168.237.130 slave1
192.168.237.131 slave2

6.• 在管理节点创建配置文件

cat /etc/app1.cnf
[server default]

mysql user and password

user=账号
password=密码
ssh_user=root

working directory on the manager

manager_workdir=/var/log/masterha/app1

working directory on MySQL servers

remote_workdir=/var/log/masterha/app1
repl_user=repl
repl_password=mysql
[server1]
hostname=master
port=3308
master_binlog_dir=/usr/local/mysql/data
[server2]
hostname=slave1
port=3308
master_binlog_dir=/usr/local/mysql/data
[server3]
hostname=slave2
port=3308
master_binlog_dir=/usr/local/mysql/data

7.两个从库配置文件
log-bin=mysql-bin
relay_log_purge=0
log-slave-updates=true

注:

MHA在发生切换的过程中,从库的恢复过程中依赖于relay log的相关信息,所以这里要将relay log的自动清除设置为OFF,采用手动清除relay log的方式。在默认情况下,从
服务器上的中继日志会在SQL线程执行完毕后被自动删除。但是在MHA环境中,这些中继日志在恢复其他从服务器时可能会被用到,因此需要禁用中继日志的自动删除功能。

8.各个主机之间秘钥认证

MHA manager通过SSH访问所有的node节点,各个node节点也同样需要通过SSH
来相互发送不同的relay log 文件,所以有必要在每一个node和manager上配置SSH
无密码登陆
ssh-keygen -t rsa
cat id_rsa.pub >>authorized_keys

9.设置目录和软连接

mkdir -p /var/log/masterha/app1
软连接所有的机器都要执行
ln -s /usr/local/mysql/bin/mysqlbinlog /usr/bin/mysqlbinlog
ln -s /usr/local/mysql/bin/mysql /usr/bin/mysql

10.【管理节点】检查ssh连接配置是否正常

MHAmanager可通过masterha_check_ssh脚本检测SSH连接是否配置正常
# masterha_check_ssh --conf=/etc/app1.cnf

11.【管理节点】检查mysql复制配置是否正常

为了让MHA正常工作,所有的master和slave必须在配置文件中正确配置,MHA可通过masterha_check_repl 脚本检测复制是否正确配置

12.• 开启Manager

nohup masterha_manager --conf=/etc/app1.cnf > /var/log/masterha/app1/mha_manager.log < /dev/null &  ##后台运行

masterha_stop --conf=/etc/app1.cnf ##停止

masterha_check_status --conf=/etc/app1.cnf ##检查manager状态是否正常

13.• 测试master的自动故障转移

[root@master bin]# /etc/init.d/mysql.server stop
Shutting down MySQL………… SUCCESS!
这时候检查manager的log日志,看看slave1是否成功成为新的master,并且slave2从slave1中复制

查看MHA切换日志
vi /var/log/masterha/app1/mha_manager.log
----- Failover Report -----
app1: MySQL Master failover master to slave1 succeeded
Master master is down!
Check MHA Manager logs at mycat for details.
Started automated(non-interactive) failover.
The latest slave slave1(192.168.237.130:3308) has all relay logs for recovery.
Selected slave1 as a new master.
slave1: OK: Applying all logs succeeded.
slave2: This host has the latest relay log events.
Generating relay diff files from the latest slave succeeded.
slave2: OK: Applying all logs succeeded. Slave started, replicating from slave1.
slave1: Resetting slave info succeeded.
Master failover to slave1(192.168.237.130:3308) completed successfully.

 14.验证MHA先获取最新日志再切换

• 先关闭两个从库的slave进程
mysql> stop slave;
• 在主库上执行插入操作,而从库没办法同步
mysql> insert into temp2 values(5000,'abc');
Query OK, 1 row affected (0.00 sec)
• 主库MySQL直接关闭,两个从库开启复制进程,依旧没有最新数据
[root@master ~]# /etc/init.d/mysql.server stop
Shutting down MySQL…. SUCCESS!
mysql> select * from temp2 where id=5000;
Empty set (0.00 sec)
• 开启mha进程,发现完成主从切换
----- Failover Report -----
app1: MySQL Master failover master to slave1 succeeded
Master master is down!
……
Master failover to slave1(192.168.237.130:3308) completed successfully.
• 查看新的主从上是否有5000这条记录
mysql> select * from temp2 where id=5000;
+------+------+
| id | name |
+------+------+
| 5000 | abc |

15.手动切换

masterha_master_switch --master_state=dead --conf=/etc/app1.cnf --dead_master_host=master --dead_master_port=3308 --new_master_ip=192.168.237.131 --new_master_port=3308

16.在线切换条件

为了保证数据完全一致性,在最快的时间内完成切换,MHA的在线切换必须满足以下条件才会切换成功,否则会切换失败。
1.所有slave的IO线程都在运行
2.所有slave的SQL线程都在运行
3.所有的show slave status的输出中Seconds_Behind_Master参数小于或者等于running_updates_limit秒,如果在切换过程中不指定running_updates_limit,那么默认情况下running_updates_limit为1秒。
4.在master端,通过show processlist输出,没有一个更新花费的时间大于running_updates_limit秒

17.添加VIP实现自动漂移

在master节点上执行ifconfig eno16777736:2 192.168.237.120/24

在监控节点的/etc/app1.cnf中添加此文件

在监控节点上配置/usr/local/bin/master_ip_failover

master_ip_failover_script=/usr/local/bin/master_ip_failover

[root@mha linshi]# cat master_ip_failover
#!/usr/bin/env perl

use strict;
use warnings FATAL => 'all';

use Getopt::Long;

my (
$command, $ssh_user, $orig_master_host, $orig_master_ip,
$orig_master_port, $new_master_host, $new_master_ip, $new_master_port
);

my $vip = '192.168.237.120/24';
my $key = '2';
my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";

GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
);

exit &main();

sub main {

print "\\n\\nIN SCRIPT TEST====$ssh\_stop\_vip==$ssh\_start\_vip===\\n\\n";

if ( $command eq "stop" || $command eq "stopssh" ) {

    my $exit\_code = 1;  
    eval {  
        print "Disabling the VIP on old master: $orig\_master\_host \\n";  
        &stop\_vip();  
        $exit\_code = 0;  
    };  
    if ($@) {  
        warn "Got Error: $@\\n";  
        exit $exit\_code;  
    }  
    exit $exit\_code;  
}  
elsif ( $command eq "start" ) {

    my $exit\_code = 10;  
    eval {  
        print "Enabling the VIP - $vip on the new master - $new\_master\_host \\n";  
        &start\_vip();  
        $exit\_code = 0;  
    };  
    if ($@) {  
        warn $@;  
        exit $exit\_code;  
    }  
    exit $exit\_code;  
}  
elsif ( $command eq "status" ) {  
    print "Checking the Status of the script.. OK \\n";  
    exit 0;  
}  
else {  
    &usage();  
    exit 1;  
}  

}

sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
return 0 unless ($ssh_user);
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}

sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
脚本需要更改两个标红的地方
IP地址
网卡名称

18.配置参数解释  ###app1.cnf

[server default]
manager_workdir=/var/log/masterha/app1.log //设置manager的工作目录
manager_log=/var/log/masterha/app1/manager.log //设置manager的日志
master_binlog_dir=/data/mysql //设置master 保存binlog的位置,以便MHA可以找到master的日志,我这里的也就是
mysql的数据目录
master_ip_failover_script= /usr/local/bin/master_ip_failover //设置自动failover时候的切换脚本
master_ip_online_change_script= /usr/local/bin/master_ip_online_change //设置手动切换时候的切换脚本
password=123456 //设置mysql中root用户的密码,这个密码是前文中创建监控用户的那个密码
user=root 设置监控用户root
ping_interval=1 //设置监控主库,发送ping包的时间间隔,默认是3秒,尝试三次没有回应的时候自动进行failover
remote_workdir=/tmp //设置远端mysql在发生切换时binlog的保存位置
repl_password=123456 //设置复制用户的密码
repl_user=repl //设置复制环境中的复制用户名
report_script=/usr/local/send_report //设置发生切换后发送的报警的脚本
secondary_check_script= /usr/local/bin/masterha_secondary_check -s server03 -s server02
shutdown_script="" //设置故障发生后关闭故障主机脚本(该脚本的主要作用是关闭主机放在发生脑裂,这里没有使用)
ssh_user=root //设置ssh的登录用户名
[server1]
hostname=192.168.0.50
port=3306
[server2]
hostname=192.168.0.60
port=3306
candidate_master=1 //设置为候选master,如果设置该参数以后,发生主从切换以后将会将此从库提升为主库,即使这个
主库不是集群中事件最新的
slave check_repl_delay=0 //默认情况下如果一个slave落后master 100M的relay logs的话,MHA将不会选择该slave作为
一个新的master,因为对于这个slave的恢复需要花费很长时间,通过设置check_repl_delay=0,MHA触发切换在选择一个
新的master的时候将会忽略复制延时,这个参数对于设置了candidate_master=1的主机非常有用,因为这个候选主在切换
的过程中一定是新的master
[server3]
hostname=192.168.0.70
port=3306

手机扫一扫

移动阅读更方便

阿里云服务器
腾讯云服务器
七牛云服务器