您好,登錄后才能下訂單哦!
MHA是Master High Availability的縮寫,它是目前MySQL高可用方面的一個相對成熟的解決方案,其核心是使用perl語言編寫的一組腳本,是一套優秀的作為MySQL高可用性環境下故障切換和主從提升的高可用軟件。在MySQL故障切換過程中,MHA能做到在0~30秒之內自動完成數據庫的故障切換操作,并且能在最大程度上保證數據的一致性,以達到真正意義上的高可用。
基于MHA的架構不像MMM那樣需要搭建主主復制,只需要搭建基本的主從復制架構即可。因為MHA在主庫掛掉時,是在多個從庫中選取出一個從庫作為新的主庫。MHA集群中的各節點彼此之間均需要基于ssh
互信通信,以實現遠程控制及數據管理功能。
MHA提供了什么功能:
MHA故障轉移過程:
ssh
登錄到宕機崩潰的Master節點上保存二進制日志事件(binlog events);MHA的架構圖如下:
本文中所使用的機器說明:
名稱 | IP | 角色 |
---|---|---|
master | 192.168.190.151 | 主庫 |
slave-01 | 192.168.190.152 | 從庫 |
slave-02 | 192.168.190.154 | 從庫 |
manager | 192.168.190.153 | 集群管理節點(MHA) |
環境版本說明:
另外的說明:
1、在所有主從節點上使用如下語句創建用于主從復制的MySQL用戶,因為每個從庫都有可能會被選舉為主庫,所以都需要擁有用于復制的用戶:
create user 'repl'@'%' identified with mysql_native_password by 'Abc_123456';
grant replication slave on *.* to 'repl'@'%';
flush privileges;
2、然后修改master
節點上的MySQL配置文件:
[root@master ~]# vim /etc/my.cnf
[mysqld]
# 設置當前節點的id
server_id=101
# 開啟binlog,并指定binlog文件的名稱
log_bin=mysql_bin
# 開啟relay_log,并指定relay_log文件的名稱
relay_log=relay_bin
# 將relaylog的同步內容記錄到binlog中
log_slave_updates=on
# 開啟GTID復制模式
gtid_mode=ON
enforce_gtid_consistency=1
3、在slave-01
的配置文件中也是添加一樣配置,只不過server_id
不一樣:
[root@slave-01 ~]# vim /etc/my.cnf
[mysqld]
server_id=102
log_bin=mysql_bin
relay_log=relay_bin
log_slave_updates=on
gtid_mode=ON
enforce_gtid_consistency=1
4、接著是配置slave-02
:
[root@slave-02 ~]# vim /etc/my.cnf
[mysqld]
server_id=103
log_bin=mysql_bin
relay_log=relay_bin
log_slave_updates=on
gtid_mode=ON
enforce_gtid_consistency=1
完成以上配置文件的修改后,分別重啟這三個節點上的MySQL服務:
[root@master ~]# systemctl restart mysqld
[root@slave-01 ~]# systemctl restart mysqld
[root@slave-02 ~]# systemctl restart mysqld
slave-01
對master
的主從關系進入slave-01
節點的MySQL命令行終端,分別執行如下語句來配置主從復制鏈路:
mysql> stop slave; -- 停止主從同步
mysql> change master to master_host='192.168.190.151', master_port=3306, master_user='repl', master_password='Abc_123456', master_auto_position=1; -- 配置master節點的連接信息
mysql> start slave; -- 啟動主從同步
配置完主從復制鏈路后,使用show slave status\G;
語句查看主從同步狀態,Slave_IO_Running
和Slave_SQL_Running
的值均為Yes
才能表示主從同步狀態是正常的:
slave-02
對master
的主從關系同樣的步驟,進入slave-02
節點的MySQL命令行終端,分別執行如下語句來配置主從復制鏈路:
mysql> stop slave; -- 停止主從同步
mysql> change master to master_host='192.168.190.151', master_port=3306, master_user='repl', master_password='Abc_123456', master_auto_position=1; -- 配置master節點的連接信息
mysql> start slave; -- 啟動主從同步
配置完主從復制鏈路后,使用show slave status\G;
語句查看主從同步狀態,Slave_IO_Running
和Slave_SQL_Running
的值均為Yes
才能表示主從同步狀態是正常的:
配置集群內所有主機之間能夠通過ssh
免密登錄,因為MHA是基于ssh
去實現遠程控制及數據管理的。例如,故障轉移過程中保存原Master節點的二進制日志以及配置虛擬IP等。
1、生成ssh
登錄密鑰:
[root@master ~]# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:LzRXziRQPrqaKEteH6KrZpCiV6uGP6GTi6RonE7Hhms root@master
The key's randomart image is:
+---[RSA 2048]----+
| ... |
| o |
| + o |
| . B |
| . S . o |
|+ + . . = |
|=Bo*o.. o . |
|%EOo.+ + . |
|%XB*. + |
+----[SHA256]-----+
2、將密鑰拷貝到其他服務器上:
[root@master ~]# ssh-copy-id -i /root/.ssh/id_rsa root@192.168.190.151
[root@master ~]# ssh-copy-id -i /root/.ssh/id_rsa root@192.168.190.152
[root@master ~]# ssh-copy-id -i /root/.ssh/id_rsa root@192.168.190.154
[root@master ~]# ssh-copy-id -i /root/.ssh/id_rsa root@192.168.190.153
然后到集群中其他節點上進行同樣的操作,由于是重復的操作這里就不演示了。最后簡單測試下能否正常免密登錄即可:
[root@master ~]# ssh root@192.168.190.152
Last failed login: Sat Feb 1 15:29:38 CST 2020 from 192.168.190.151 on ssh:notty
There was 1 failed login attempt since the last successful login. # 沒有要求輸入密碼,測試成功
Last login: Sat Feb 1 14:14:03 2020 from 192.168.190.1
[root@slave-01 ~]#
1、首先在所有的節點上安裝mha4mysql-node
軟件包,安裝包可到如下地址進行下載:
下載好的rpm
文件如下:
[root@master ~]# ls *.rpm
mha4mysql-node-0.58-0.el7.centos.noarch.rpm
[root@master ~]#
在安裝該rpm
包之前需要先安裝perl相關依賴:
[root@master ~]# yum -y install epel-release
[root@master ~]# yum -y install perl-DBD-MySQL perl-DBI ncftp
現在就可以安裝mha4mysql-node
了,命令如下:
[root@master ~]# rpm -ivh mha4mysql-node-0.58-0.el7.centos.noarch.rpm
2、接著是在監控節點manager
上安裝mha4mysql-manager
軟件包,安裝包到如下地址進行下載:
下載好的rpm
文件如下:
[root@manager ~]# ls *.rpm
mha4mysql-manager-0.58-0.el7.centos.noarch.rpm
[root@manager ~]#
同樣,在安裝該rpm
包之前需要先安裝perl相關依賴:
[root@manager ~]# yum -y install epel-release
[root@manager ~]# yum -y install perl-Config-Tiny perl-Time-HiRes perl-Parallel-ForkManager perl-Log-Dispatch perl-DBD-MySQL ncftp
然后安裝mha4mysql-manager
包,命令如下:
[root@manager ~]# rpm -ivh mha4mysql-manager-0.58-0.el7.centos.noarch.rpm
1、創建MHA的配置文件存放目錄和工作目錄:
[root@manager ~]# mkdir /etc/mha
[root@manager ~]# mkdir /home/mysql_mha
2、創建MHA的配置文件,并添加如下內容:
[root@manager ~]# vim /etc/mha/mysql_mha.cnf
[server default]
# mha用于訪問數據庫的賬戶和密碼
user=mha
password=Abc_123456
# 指定mha的工作目錄
manager_workdir=/home/mysql_mha
# mha日志文件的存放路徑
manager_log=/home/mysql_mha/manager.log
# 指定mha在遠程節點上的工作目錄
remote_workdir=/home/mysql_mha
# 可以使用ssh登錄的用戶
ssh_user=root
# 用于主從復制的MySQL用戶和密碼
repl_user=repl
repl_password=Abc_123456
# 指定間隔多少秒檢測一次
ping_interval=1
# 指定master節點存放binlog日志文件的目錄
master_binlog_dir=/var/lib/mysql
# 指定一個腳本,該腳本實現了在主從切換之后,將虛擬IP漂移到新的Master上
master_ip_failover_script=/usr/bin/master_ip_failover
# 指定用于二次檢查節點狀態的腳本
secondary_check_script=/usr/bin/masterha_secondary_check -s 192.168.190.151 -s 192.168.190.152 -s 192.168.190.154
# 配置集群中的節點信息
[server1]
hostname=192.168.190.151
# 指定該節點可以參與Master選舉
candidate_master=1
[server2]
hostname=192.168.190.152
candidate_master=1
[server3]
hostname=192.168.190.154
# 指定該節點不能參與Master選舉
no_master=1
3、編寫配置文件中所配置的master_ip_failover
腳本,該腳本是根據MHA的官方示例修改的,MHA默認并沒有提供。需要注意腳本中的幾處地方需要根據實際情況進行修改,已用注釋標明:
[root@manager ~]# vim /usr/bin/master_ip_failover
#!/usr/bin/env perl
use strict;
use warnings FATAL => 'all';
use Getopt::Long;
my (
$command, $orig_master_host, $orig_master_ip,$ssh_user,
$orig_master_port, $new_master_host, $new_master_ip,$new_master_port,
$orig_master_ssh_port,$new_master_ssh_port,$new_master_user,$new_master_password
);
# 這里定義的虛擬IP可以根據實際情況進行修改
my $vip = '192.168.190.80/24';
my $key = '1';
# 這里的網卡名稱 “ens32” 需要根據你機器的網卡名稱進行修改
my $ssh_start_vip = "sudo /sbin/ifconfig ens32:$key $vip";
my $ssh_stop_vip = "sudo /sbin/ifconfig ens32:$key down";
my $ssh_Bcast_arp= "sudo /sbin/arping -I bond0 -c 3 -A $vip";
GetOptions(
'command=s' => \$command,
'ssh_user=s' => \$ssh_user,
'orig_master_host=s' => \$orig_master_host,
'orig_master_ip=s' => \$orig_master_ip,
'orig_master_port=i' => \$orig_master_port,
'orig_master_ssh_port=i' => \$orig_master_ssh_port,
'new_master_host=s' => \$new_master_host,
'new_master_ip=s' => \$new_master_ip,
'new_master_port=i' => \$new_master_port,
'new_master_ssh_port' => \$new_master_ssh_port,
'new_master_user' => \$new_master_user,
'new_master_password' => \$new_master_password
);
exit &main();
sub main {
$ssh_user = defined $ssh_user ? $ssh_user : 'root';
print "\n\nIN SCRIPT TEST====$ssh_user|$ssh_stop_vip==$ssh_user|$ssh_start_vip===\n\n";
if ( $command eq "stop" || $command eq "stopssh" ) {
my $exit_code = 1;
eval {
print "Disabling the VIP on old master: $orig_master_host \n";
&stop_vip();
$exit_code = 0;
};
if ($@) {
warn "Got Error: $@\n";
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "start" ) {
my $exit_code = 10;
eval {
print "Enabling the VIP - $vip on the new master - $new_master_host \n";
&start_vip();
&start_arp();
$exit_code = 0;
};
if ($@) {
warn $@;
exit $exit_code;
}
exit $exit_code;
}
elsif ( $command eq "status" ) {
print "Checking the Status of the script.. OK \n";
exit 0;
}
else {
&usage();
exit 1;
}
}
sub start_vip() {
`ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
}
sub stop_vip() {
`ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
}
sub start_arp() {
`ssh $ssh_user\@$new_master_host \" $ssh_Bcast_arp \"`;
}
sub usage {
print
"Usage: master_ip_failover --command=start|stop|stopssh|status --ssh_user=user --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
}
還需要給該腳本添加可執行權限,否則MHA是無法調用的:
[root@manager ~]# chmod a+x /usr/bin/master_ip_failover
4、根據配置文件中remote_workdir
的配置,需在其他節點上創建MHA的遠程工作目錄:
[root@master ~]# mkdir /home/mysql_mha
[root@slave-01 ~]# mkdir /home/mysql_mha
[root@slave-02 ~]# mkdir /home/mysql_mha
5、在配置文件中指定了讓manager
使用mha
這個用戶來訪問數據庫節點,所以需要在master
節點上創建mha
用戶:
create user 'mha'@'%' identified with mysql_native_password by 'Abc_123456';
grant all privileges on *.* to 'mha'@'%';
flush privileges;
6、完成以上所有步驟后,在manager
節點上使用masterha_check_ssh
和masterha_check_repl
對配置進行檢查,其中masterha_check_ssh
用于檢查ssh
登錄是否正常,而masterha_check_repl
則用于檢查主從節點的復制鏈路是否正常:
[root@manager ~]# masterha_check_ssh --conf=/etc/mha/mysql_mha.cnf
[root@manager ~]# masterha_check_repl --conf=/etc/mha/mysql_mha.cnf
執行結果如下:
7、以上檢測都通過后,就可以啟動MHA服務了。啟動命令如下:
[root@manager ~]# nohup masterha_manager --conf=/etc/mha/mysql_mha.cnf &
啟動完成后,可以使用ps
命令查看masterha_manager
進程是否存在,如下存在則代表啟動成功:
[root@manager ~]# ps aux |grep masterha_manager
root 2842 0.3 1.1 299648 22032 pts/0 S 18:30 0:00 perl /usr/bin/masterha_manager --conf=/etc/mha/mysql_mha.cnf
root 2901 0.0 0.0 112728 976 pts/0 R+ 18:31 0:00 grep --color=auto masterha_manager
[root@manager ~]#
8、最后我們需要到master
節點上,手動去配置虛擬IP。因為MHA只會在主從切換時漂移虛擬IP到新的Master節點,而不會在第一次啟動時主動去設置Master的虛擬IP,所以我們需要手動設置。設置虛擬IP的命令如下:
[root@master ~]# ifconfig ens32:1 192.168.190.80/24
設置成功后,使用ip addr
命令可以看到網卡上綁定的虛擬IP:
到此為止,我們就已經完成了MHA高可用架構的搭建,接下來我們對其進行一些簡單的測試。例如,測試下是否能正常ping
通虛擬IP,畢竟應用端訪問數據庫時連接的是虛擬IP,所以首先得確保虛擬IP是能夠被訪問的。如下:
能ping
通之后,使用Navicat等遠程連接工具測試下能否正常通過虛擬IP連接上數據庫:
確定了虛擬IP能正常訪問后,接著測試MHA是否能夠正常進行主從切換,首先將master
節點上的MySQL服務給停掉,模擬Master宕機:
[root@master ~]# systemctl stop mysqld
正常情況下,此時master
節點上的網卡就不會再綁定該虛擬IP:
而是會被MHA漂移到slave-01
節點的網卡上,因為此時該Slave就是新的Master:
接著進入slave-02
節點上的MySQL命令行終端,確認下該Slave是否已經正常與新的Master進行同步。之前我們配置slave-02
的主庫是master
,現在將master
停掉后,可以看到slave-02
的Master_Host
已經被MHA切換成了slave-01
的IP:
經過以上測試后,可以看到我們搭建的MHA架構是能夠正常運行的,已經使得Replication集群擁有了基本的高可用能力,即便Master下線后也能正常從Slave中選舉新的Master并進行切換,也正確建立了其他Slave與新Master的復制鏈路。
ssh
免密登錄,存在一定的安全隱患免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。