MMM雙主-雙從讀寫分離部署
阿新 • • 發佈:2019-01-16
row 有一個 二進制 cti dia status 接管 list time
提示:以上角色需要在所有節點添加。
目錄
- 一 前期規劃
- 1.1 主機規劃
- 1.2 虛擬IP規劃
- 1.3 用戶列表
- 1.4 整體架構
- 1.4 hosts修改
- 1.5 NTP配置
- 二 部署MySQL
- 2.1 安裝MySQL
- 三 雙主復制部署
- 3.1 master01 my.cf配置
- 3.2 Master02 my.cf配置
- 3.4 Master02創建賬號
- 3.5 啟動雙主復制
- 3.3 啟動Master02的slave功能
- 四 其他節點配置
- 4.1 所有Slave節點配置配置
- 4.2 所有Slave節點創建賬號
- 4.2 Slave節點配置Master01為主
- 五 安裝MMM組件
- 5.1 監控Monitor節點安裝MMM
- 5.2 其他節點安裝MMM
- 附1 添加安裝Perl腳本
- 附2 編譯安裝
- 5.3 目錄構成
- 六 配置MMM
- 6.1 Master01的mmm_agent配置
- 6.2 Master01的mmm_common配置
- 6.3 Master01的mysql-mmm-agent配置
- 6.4 其他節點配置
- 6.5 管理Monitor節點配置
- 七 MMM集群的啟動
- 7.1 管理監控Monitor節點啟動
- 7.2 所有agent節點啟動
- 八 MMM基本維護
- 8.1 MMM常見命令
- 8.2 查看集群狀態
- 8.3 查看集群運行模式
- 8.4 檢查節點情況
- 8.5 日誌文件
- 九 測試MMM
- 9.1 測試集群復制功能
- 9.2 讀寫分離測試
- 9.3 故障轉移測試
- 十 MMM總結
一 前期規劃
1.1 主機規劃
功能 | IP | 主機名 | server id | 應用屬性 | VIP | MySQL版本 |
Monitor | 172.24.8.20 | Monitor | —— | 監控 | —— | —— |
Master01 | 172.24.8.10 | Master01 | 1 | 寫-writer | 172.24.8.100 | MySQL 5.6.37 |
Master02 | 172.24.8.11 | Master02 | 2 | 讀-reader 寫-writer | 172.24.8.101 172.24.8.102 172.24.8.103 172.24.8.104 | |
Slave01 | 172.24.8.12 | Slave01 | 3 | 讀-reader | ||
Slave02 | 172.24.8.13 | Slave02 | 4 | 讀-reader |
1.2 虛擬IP規劃
VIP | 備註 |
172.24.8.100 | Master01主庫寫操作 Master01正常時候,Master02的vip對外提供只讀服務; Master01出現故障時候,Master02接替Master01對外提供讀寫服務。 |
172.24.8.101 | 只讀,讀查詢VIP,每個數據節點一個讀VIP, 可搭配LVS,HAProxy等負載均衡軟件對讀VIP進行負載均衡。 |
172.24.8.102 | |
172.24.8.103 | |
172.24.8.104 |
1.3 用戶列表
角色 | 權限 | 描述 |
monitor | replication client | mmm監控MySQL服務健康 |
agent user | SUPER, REPLICATION CLIENT, PROCESS | mmm代理用來更改只讀模式、復制的主服務器等 |
replication user | replication slave | 用於復制 |
1.4 整體架構
1.4 hosts修改
1 [root@localhost ~]# vi /etc/sysconfig/network 2 NETWORKING=yes 3 HOSTNAME=Master01 4 [root@Master01 ~]# vi /etc/hosts 5 Master01 172.24.8.10 6 Master02 172.24.8.11 7 Slave01 172.24.8.12 8 Slave02 172.24.8.13 9 Monitor 172.24.8.20提示:所有主機添加對應的hostname和hosts,此步驟非必須,為方便之後簡化配置,建議修改hosts。
1.5 NTP配置
略,具體可參考筆記NTP-《003.NTP客戶端配置》。 提示:針對高可用的優化,建議所有節點均配置NTP服務。二 部署MySQL
2.1 安裝MySQL
略,具體可參考MySQL主從復制-《MySQL高可用主從復制部署》。 提示:除去monitor節點外所有節點均需要部署。三 雙主復制部署
3.1 master01 my.cf配置
1 [root@Master01 ~]# vi /etc/my.cnf 2 [mysqld] 3 …… 4 server-id=1 #設置主服務器master的id 5 log-bin=mysql-bin #配置二進制變更日誌命名格式 6 replicate-wild-ignore-table=mysql.% 7 replicate-wild-ignore-table=test.% 8 replicate-wild-ignore-table=information_schema.% 9 sync-binlog=1 #每條自動更新,安全性高,默認是0 10 auto_increment_increment=2 #字段一次遞增多少 11 auto_increment_offset=1 #自增字段的起始值 12 log_slave_updates #當一個主故障,另一個立即接管 13 read_only=1註意: master開啟二進制日誌後默認記錄所有庫所有表的操作,可以通過配置來指定只記錄指定的數據庫甚至指定的表的操作,具體在mysql配置文件的[mysqld]可添加修改如下選項: 方法一:
1 # 不同步哪些數據庫 2 binlog-ignore-db = mysql 3 binlog-ignore-db = test 4 binlog-ignore-db = information_schema 5 # 只同步哪些數據庫,除此之外,其他不同步 6 binlog-do-db = mysqltest方法二: 建議采用以下方式配置過濾:
1 replicate-wild-ignore-table=mysql.% #從庫配置不同步表 2 replicate-wild-do-table=test.% #從庫配置需要同步的表
提示:不要在主庫使用binlog-ignore-db和binlog-do-db,也不要在從庫使用replicate-wild-ignore和replicate-wild-do-table。
3.2 Master02 my.cf配置
1 [root@Master01 ~]# service mysqld start 2 [root@Master01 ~]# mysql -uroot -px120952576 3 mysql> grant replication slave on *.* to ‘repl_user‘@‘172.24.8.%‘ identified by ‘x12345678‘;
#創建用於復制的賬號 4 mysql> grant replication client on *.* to ‘mmm_monitor‘@‘172.24.8.%‘ identified by ‘x12345678‘;
#創建用於監控MySQL服務健康的賬號 5 mysql> grant super,replication client,process on *.* to ‘mmm_agent‘@‘172.24.8.%‘ identified by ‘x12345678‘;
#創建用於切換只讀模式、同步Master信息的賬號 6 mysql> grant select,insert,update,delete,create,drop on *.* to ‘mmm_test‘@‘172.24.8.%‘ identified by ‘x120952576‘ with grant option; #創建之後用於讀寫分離測試的賬號 7 mysql> flush privileges; 8 [root@Master01 ~]# service mysqld restart 9 [root@Master01 ~]# mysql -uroot -px120952576 10 mysql> show master status;master01: file:mysql-bin.000001 position:120 註意:讀寫分離對於用於super或者all privileges權限的用戶無效,需要創建普通用戶進行測試。
3.4 Master02創建賬號
略,同3.3 Master01創建賬號同樣操作即可。1 [root@Master01 ~]# service mysqld restart 2 [root@Master01 ~]# mysql -uroot -px120952576 3 mysql> show master status;master02: file:mysql-bin.000001 position:120
3.5 啟動雙主復制
提示:如果Master01和Master02已經存在數據,則在開啟主備復制之前,需要將Master01和Master02手動同步一次(/var/lib/mysql整個目錄打包tar.gz),具體方法略。 註意:本實驗都是重新安裝的MySQL,可直接啟動同步。1 [root@Master01 ~]# mysql -uroot -px120952576 2 Enter password: 3 mysql> change master to master_host=‘172.24.8.11‘, 4 -> master_user=‘repl_user‘, 5 -> master_password=‘x12345678‘, 6 -> master_log_file=‘mysql-bin.000001‘, 7 -> master_port=3306, 8 -> master_log_pos=120; 9 mysql> start slave; 10 mysql> show slave status\G #查看slave狀態略
3.3 啟動Master02的slave功能
1 [root@Master02 ~]# mysql -uroot -px120952576 2 mysql> change master to master_host=‘172.24.8.10‘, 3 -> master_user=‘repl_user‘, 4 -> master_password=‘x12345678‘, 5 -> master_log_file=‘mysql-bin.000001‘, 6 -> master_log_pos=120; 7 mysql> start slave; 8 mysql> show slave status\G #查看slave狀態略 提示: slave的I/O和SQL線程都已經開始運行,而且Seconds_Behind_Master不再是NULL。日誌的位置增加了,意味著一些事件被獲取並執行了。如果你在master上進行修改,你可以在slave上看到各種日誌文件的位置的變化,同樣,你也可以看到數據庫中數據的變化。
四 其他節點配置
4.1 所有Slave節點配置配置
1 [root@Master01 ~]# scp /etc/my.cnf [email protected]:/etc/ 2 [root@Master01 ~]# scp /etc/my.cnf [email protected]:/etc/ 3 [root@Slave01 ~]# vi /etc/my.cnf 4 [mysqld] 5 …… 6 server-id=3 #設置主服務器Slave01的id 7 [root@Slave02 ~]# vi /etc/my.cnf 8 [mysqld] 9 …… 10 server-id=4 #設置主服務器Slave02的id提示:從Master01將復制my.cnf至所有節點(除去monitor外),並修改相應的server id。
4.2 所有Slave節點創建賬號
1 [root@Slave01 ~]# service mysqld start 2 [root@Slave01 ~]# mysql -uroot -px120952576 3 mysql> grant replication slave on *.* to ‘repl_user‘@‘172.24.8.%‘ identified by ‘x12345678‘; #創建用於復制的賬號 4 mysql> grant replication client on *.* to ‘mmm_monitor‘@‘172.24.8.%‘ identified by ‘x12345678‘; #創建用於監控MySQL服務健康的賬號 5 mysql> grant super,replication client,process on *.* to ‘mmm_agent‘@‘172.24.8.%‘ identified by ‘x12345678‘;
#創建用於切換只讀模式、同步Master信息的賬號 6 mysql> grant select,insert,update,delete,create,drop on *.* to ‘mmm_test‘@‘172.24.8.%‘ identified by ‘x120952576‘ with grant option; #創建之後用於讀寫分離測試的賬號 7 mysql> flush privileges;提示:Slave02如上操作。
4.2 Slave節點配置Master01為主
1 [root@Slave01 ~]# service mysqld restart 2 [root@Slave01 ~]# mysql -uroot -px120952576 3 mysql> change master to master_host=‘172.24.8.10‘, 4 -> master_user=‘repl_user‘, 5 -> master_password=‘x12345678‘, 6 -> master_log_file=‘mysql-bin.000001‘, 7 -> master_log_pos=120; 8 mysql> start slave; 9 mysql> show slave status\G #查看slave狀態略 提示:Slave02如上操作。 註意:讀寫分離對於用於super或者all privileges權限的用戶無效,需要創建普通用戶進行測試。
五 安裝MMM組件
5.1 監控Monitor節點安裝MMM
1 [root@Monitor tmp]# wget http://mirrors.ustc.edu.cn/epel/epel-release-latest-6.noarch.rpm 2 [root@Monitor tmp]# rpm -ivh epel-release-latest-6.noarch.rpm 3 [root@Monitor ~]# yum -y install mysql-mmm*
5.2 其他節點安裝MMM
1 [root@Master01 ~]# wget http://mirrors.ustc.edu.cn/epel/epel-release-latest-6.noarch.rpm 2 [root@Master01 ~]# rpm -ivh epel-release-latest-6.noarch.rpm 3 [root@Master01 ~]# yum -y install mysql-mmm-agent註意:
- MMM組件在常規YUM中不包含,需要安裝epel源;
- 除monitor節點外其他節點只需要安裝mysql-mmm-agent即可。
提示:若yum安裝出現以下報錯,建議在所有節點改用編譯安裝,操作見附1-附2:
附1 添加安裝Perl腳本
1 [root@Master01 ~]# cat install.sh 2 #!/bin/bash 3 wget http://xrl.us/cpanm --no-check-certificate 4 mv cpanm /usr/bin 5 chmod 755 /usr/bin/cpanm 6 cat > /root/list << EOF 7 install Algorithm::Diff 8 install Class::Singleton 9 install DBI 10 install DBD::mysql 11 install File::Basename 12 install File::stat 13 install File::Temp 14 install Log::Dispatch 15 install Log::Log4perl 16 install Mail::Send 17 install Net::ARP 18 install Net::Ping 19 install Proc::Daemon 20 install Thread::Queue 21 install Time::HiRes 22 EOF 23 for package in `cat /root/list` 24 do 25 cpanm $package 26 done
附2 編譯安裝
1 [root@Master01 tmp]# wget http://mysql-mmm.org/_media/:mmm2:mysql-mmm-2.2.1.tar.gz 2 [root@Master01 tmp]# mv \:mmm2\:mysql-mmm-2.2.1.tar.gz mysql-mmm-2.2.1.tar.gz 3 [root@Master01 tmp]# tar -zxvf mysql-mmm-2.2.1.tar.gz 4 [root@Master01 tmp]# cd mysql-mmm-2.2.1/ 5 [root@Master01 mysql-mmm-2.2.1]# make install註意,註意,註意: 通常使用以上編譯安裝也會失敗,強烈建議使用yum安裝,但yum安裝必須使得MySQL版本為mysql-community-server-5.6.37(或以上)!
5.3 目錄構成
目錄 | 介紹 |
/usr/lib/perl5/vendor_perl/5.8.8/MMM | MMM使用的主要perl模塊 |
/usr/lib/mysql-mmm | MMM使用的主要腳本 |
/usr/sbin | MM使用的主要命令的路徑 |
/etc/init.d/ | MMM的agent和monitor啟動服務的目錄 |
/etc/mysql-mmm | MMM配置文件的路徑,默認所以的配置文件 |
/var/log/mysql-mmm | 默認的MMM保存日誌的位置 |
六 配置MMM
6.1 Master01的mmm_agent配置
1 [root@Master01 ~]# vi /etc/mysql-mmm/mmm_agent.conf 2 include mmm_common.conf 3 this db1提示:設置db1的配置信息,此db1名字可自定義,但必須和mmm_common.conf 中一致。
6.2 Master01的mmm_common配置
1 [root@Master01 ~]# vi /etc/mysql-mmm/mmm_common.conf 2 active_master_role writer 3 #當設置為writer的時候,需要在所有MySQL節點設置“read_only=1”,則MMM會本劇每個節點的角色進行動態判斷,當MMM的角色設置<role writer>時候,則會自動添加“set global read_only=0”操作,即打開寫權限。 4 <host default> 5 cluster_interface eth0 #設置網絡接口,不能為子接口。 6 pid_path /var/run/mysql-mmm/mmm_agentd.pid #設定PID文件路徑 7 bin_path /usr/libexec/mysql-mmm/ #設置MMM可執行文件路徑 8 replication_user repl_user #設置復制的用戶名 9 replication_password x12345678 #設置復制的用戶名的密碼 10 agent_user mmm_agent #設置更改只讀操作的用戶 11 agent_password x12345678 #設置更改只讀操作用戶的密碼 12 </host> 13 14 <host db1> #設置db1的配置信息,此db1名字可自定義,但必須和mmm_agent.conf中一致。 16 ip 172.24.8.10 #設置db1的物理IP 17 mode master #設置db1角色為Master 18 peer db2 #設置db1對等的主機名,即db2和db1均為Master 19 </host> 20 21 <host db2> #類似db1的設置 22 ip 172.24.8.11 23 mode master 24 peer db1 25 </host> 26 27 <host db3> #類似db1的設置 28 ip 172.24.8.12 29 mode slave #設置db3的角色為Slave 30 </host> 31 32 <host db4> #類似db1的設置 33 ip 172.24.8.13 34 mode slave #設置db4的角色為Slave 35 </host> 36 37 <role writer> #設置可寫角色 38 hosts db1, db2 #設置可執行寫操作的主機 39 ips 172.24.8.100 #設置可寫的虛擬IP 40 mode exclusive #設置角色的模式為互斥,互斥角色只有一個IP,並且同一時間只能分配一個主機。 41 </role> 42 43 <role reader> #設置只讀角色 44 hosts db1, db2, db3, db4 #設置只讀角色的主機 45 ips 172.24.8.101, 172.24.8.102, 172.24.8.103, 172.24.8.104 46 #設置可讀的虛擬IP,可以有多個。 47 mode balanced
#設置角色的模式為負載均衡,在負載均衡角色中,可以有多個IP,這些IP被均衡地、動態地分配給多個MySQL主機。 49 </role>
6.3 Master01的mysql-mmm-agent配置
1 [root@Master01 ~]# vi /etc/default/mysql-mmm-agent 2 ENABLED=1註意:使用yum安裝則不需要配置mysql-mmm-agent ,默認已經添加了ENABLED=1。
6.4 其他節點配置
1 [root@Master01 ~]# scp /etc/mysql-mmm/mmm_common.conf [email protected]:/etc/mysql-mmm/ 2 [root@Master01 ~]# scp /etc/mysql-mmm/mmm_common.conf [email protected]:/etc/mysql-mmm/ 3 [root@Master01 ~]# scp /etc/mysql-mmm/mmm_common.conf [email protected]:/etc/mysql-mmm/ 4 [root@Master01 ~]# scp /etc/default/mysql-mmm-agent [email protected]://etc/default/ 5 [root@Master01 ~]# scp /etc/default/mysql-mmm-agent [email protected]://etc/default/ 6 [root@Master01 ~]# scp /etc/default/mysql-mmm-agent [email protected]://etc/default/提示:所有節點的mysql-mmm-agent和mmm_common.conf內容一致,從Master01復制即可,Monitor不需要配置agent。
1 [root@Master02 ~]# vi /etc/mysql-mmm/mmm_agent.conf 2 include mmm_common.conf 3 this db2 4 [root@Slave01 ~]## vi /etc/mysql-mmm/mmm_agent.conf 5 include mmm_common.conf 6 this db3 7 [root@Slave02 ~]## vi /etc/mysql-mmm/mmm_agent.conf 8 include mmm_common.conf 9 this db4
6.5 管理Monitor節點配置
1 [root@Monitor ~]# vi /etc/mysql-mmm/mmm_mon.conf2 include mmm_common.conf 3 <monitor> 4 ip 127.0.0.1 #為了安全,只設置本機監聽,mmm_mond默認監聽的端口為9988 6 pid_path /var/run/mysql-mmm/mmm_mond.pid #設置mmm_mond進程pid文件位置 8 bin_path /usr/libexec/mysql-mmm #mmm可執行文件路徑 10 status_path /var/lib/mysql-mmm/mmm_mond.status #mmm集群的狀態文件 12 ping_ips 172.24.8.10, 172.24.8.11, 172.24.8.12, 172.24.8.13 13 #用於測試的IP,只要其中有一個地址能ping通,代表網絡正常,不要寫入本機(即Monitor)IP。 14 auto_set_online 60 #設置是否自動上線,若大於0,抖動的主機在抖動時間範圍過後,自動上線。 16 …… 17 </monitor> 18 19 <host default> 20 monitor_user mmm_monitor #設置mmm_monitor賬號。 22 monitor_password x12345678 #設置mmm_monitor密碼。 24 </host> 25 debug 0 #mmm管理器的運行模式,1為debug模式,0為正常模式。註意:mmm-mon.conf只需要在監控管理Monitor節點上配置即可。
七 MMM集群的啟動
7.1 管理監控Monitor節點啟動
1 [root@Monitor ~]# /etc/init.d/mysql-mmm-monitor start 2 [root@Monitor ~]# chkconfig mysql-mmm-monitor on
7.2 所有agent節點啟動
1 [root@Master01 ~]# /etc/init.d/mysql-mmm-agent start 2 [root@Master01 ~]# chkconfig mysql-mmm-agent on 3 [root@Master02 ~]# /etc/init.d/mysql-mmm-agent start 4 [root@Master02 ~]# chkconfig mysql-mmm-agent on 5 [root@Slave01 ~]# /etc/init.d/mysql-mmm-agent start 6 [root@Slave01 ~]# chkconfig mysql-mmm-agent on 7 [root@Slave02 ~]# /etc/init.d/mysql-mmm-agent start 8 [root@Slave02 ~]# chkconfig mysql-mmm-agent on
八 MMM基本維護
8.1 MMM常見命令
1 [root@Monitor ~]# mmm_control help2 Valid commands are: 3 help - show this message #顯示幫助信息 4 ping - ping monitor #測試網絡運行狀態 5 show - show status #顯示MMM集群節點狀態 6 checks [<host>|all [<check>|all]] - show checks status #顯示MMM集群中指定(所有)節點的詳細狀態 8 set_online <host> - set host <host> online #將MMM集群中的節點設置為online狀態 10 set_offline <host> - set host <host> offline #將MMM集群中的節點設置為offline狀態 12 mode - print current mode. #顯示MMM集群當前的運行模式,有active(默認)、manual和passive三種模式。 14 set_active - switch into active mode. 15 set_manual - switch into manual mode. 16 set_passive - switch into passive mode. #切換MMM集群到以上三種模式。 18 move_role [--force] <role> <host> - move exclusive role <role> to host <host> 19 #在互斥模式下切換角色 20 (Only use --force if you know what you are doing!) 21 set_ip <ip> <host> - set role with ip <ip> to host <host> 22 #用來在被動模式下操縱角色
8.2 查看集群狀態
1 [root@Monitor ~]# mmm_control show解釋: ONLINE:節點運行正常,處於在線狀態; ADMIN_OFFLINE:節點是通過手動模式離線的; HARD_OFFLINE:節點是MMM集群執行ping操縱失敗或檢測到MySQL失敗而切換的一種狀態; AWAITING_RECOVERY:等待恢復狀態; REPLICATION_FAIL:主從復制失敗狀態,一般由於復制主線程沒運行導致; REPLICATION_DELAY:復制日誌有延遲,一般是由於檢測日誌失敗導致的。
8.3 查看集群運行模式
1 [root@Monitor ~]# mmm_control mode解釋: ACTIVE:表示主動模式,也是默認模式,即活動的Master故障後另一個備份的Master可自動接管故障Master角色,繼續提供服務。Slave故障後其他節點的Slave也會自動接管故障Slave角色,繼續提供服務。 MANUAL:表示手動模式,該模式不會自動執行切換,節點故障需要手動進行切換。 PASSIVE:表示被動模式,在此模式下,MMM管理端不會改變集群節點的角色,也不更新狀態文件和發送任何信息給每個agent節點。
8.4 檢查節點情況
1 [root@Monitor ~]# mmm_control checks all解釋: ping:主要用來探測網絡可用性; MySQL:檢測MySQL服務器是否運行正常; rep_threads:檢測MySQL的復制線程是否正常運行; rep_backlog:檢測MySQL的復制日誌是否有積壓。 註意: 以上四個檢測任何一項出現問題,都會進行角色切換操作,從而保證MySQL服務的高可用性。
8.5 日誌文件
db端:/var/log/mysql-mmm/mmm_agentd.log 監控端:/var/log/mysql-mmm/mmm_mond.log九 測試MMM
9.1 測試集群復制功能
1 [root@Client ~]# mysql -uroot -px120952576 -h172.24.8.100 2 mysql> show variables like "%hostname%"; 3 mysql> show variables like "%server_id%";
1 mysql> create database mysqltest; 2 mysql> use mysqltest; 3 mysql> create table user(id int(5),name char(10)); 4 mysql> insert into user values (00001,‘zhangsan‘);在Slave從服務器上進行驗證:
1 [root@Master02 ~]# mysql -uroot -px120952576 2 mysql> show databases; 3 mysql> select * from mysqltest.user;其他所有slave節點測試略。
9.2 讀寫分離測試
1 [root@Client ~]# mysql -ummm_test -px120952576 -h172.24.8.101 2 mysql> use mysqltest; 3 mysql> create table test_mmm(id int,email varchar(100));結論:從reader權限的vip進入後只能進行讀,不能寫,實現了讀寫分離。
9.3 故障轉移測試
A Master轉移1 [root@Monitor ~]# mmm_control show #查看現有集群情況
1 [root@Master01 ~]# service mysqld stop #停止Master01節點 2 [root@Monitor ~]# mmm_control show #再次查看集群節點情況
1 [root@Master01 ~]# service mysqld start #再次啟動Master01節點 2 [root@Monitor ~]# mmm_control show結論:由上可知當Master01節點故障時,writer vip自動切換到Master02上,當Master01節點重新啟動,writer vip並不會切回Master01,類似Keepalived中的不搶占模式,若需要Master01切回writer,可執行以下命令手動切回:
1 [root@Monitor ~]# mmm_control move_role writer db1 2 [root@Monitor ~]# mmm_control showB Slave轉移
1 [root@Slave01 ~]# service mysqld stop 2 [root@Monitor ~]# mmm_control show
1 [root@Slave01 ~]# service mysqld start 2 [root@Monitor ~]# mmm_control show結論:由上可知當Slave01節點故障時,reader vip自動切換到Master02上,當Slave01節點重新啟動,reader vip會切回Slave01。
十 MMM總結
- Master02節點宕機不影響集群的狀態,只是移除了Master02節點的讀狀態;
- Master01主節點宕機,由Master02主節點接管寫角色,Slave01、Slave02指向新Master02主庫進行復制,Slave01、Slave02會自動change master到Master02;
- MMM架構需要多個節點、多個IP,對服務器數量有要求;
- 在讀寫非常繁忙的業務系統下表現不是很穩定,可能會出現復制延時、切換失效等問題;
- MMM方案並不太適應於對數據安全性要求很高,並且讀、寫繁忙的環境中
MMM雙主-雙從讀寫分離部署