基於MGR+Atlas的讀寫分離嘗試,以及MGR+Keepalived+Atlas自動故障轉移+讀寫分離設想
復制環境準備
讀寫分離理論上講,跟復制模式沒有關系,atlas負責的是重定向讀寫,至於復制模式自己選擇,這裏是測試環境,之前測試MGR的單機多實例,MGR單主模式的復制模式,就順便借助MGR做基於atlas的讀寫分離。
atlas安裝
rpm安裝,瞬間完成
atlas的配置文件(默認/usr/local/mysql_proxy/conf/test.cnf),個人感覺是一個非常清爽的配置,基本上配置節點的備註都非常清楚。
因為是單機多實例,這裏僅僅通過不同的端口號來區分從庫實例,可以是單從,也可以是多從,按照優先級來拆分。
#Atlas後端連接的MySQL從庫的IP和端口,@後面的數字代表權重,用來作負載均衡,若省略則默認為1,可設置多項,用逗號分隔
這個節點需要註意的是,對應的用戶名必須在每個是利用都存在且密碼一樣,否則會出現錯誤
#用戶名與其對應的加密過的MySQL密碼,密碼使用PREFIX/bin目錄下的加密程序encrypt加密,下行的user1和user2為示例,將其替換為你的MySQL的用戶名和加密密碼!
pwds = username1:DAJnl8cVzy8=, username2:DAJnl8cVzy8=
[mysql-proxy] #帶#號的為非必需的配置項目 #管理接口的用戶名 admin-username = user #管理接口的密碼 admin-password = pwd #Atlas後端連接的MySQL主庫的IP和端口,可設置多項,用逗號分隔 proxy-backend-addresses = ***.***.***.***:8001 #Atlas後端連接的MySQL從庫的IP和端口,@後面的數字代表權重,用來作負載均衡,若省略則默認為1,可設置多項,用逗號分隔 proxy-read-only-backend-addresses = proxy-read-only-backend-addresses =***.***.***.***:8002@1,***.***.***.***:8003@2 #用戶名與其對應的加密過的MySQL密碼,密碼使用PREFIX/bin目錄下的加密程序encrypt加密,下行的user1和user2為示例,將其替換為你的MySQL的用戶名和加密密碼! pwds = user1:DAJnl8cVzy8=, user2:DAJnl8cVzy8= #設置Atlas的運行方式,設為true時為守護進程方式,設為false時為前臺方式,一般開發調試時設為false,線上運行時設為true,true後面不能有空格。 daemon = true #設置Atlas的運行方式,設為true時Atlas會啟動兩個進程,一個為monitor,一個為worker,monitor在worker意外退出後會自動將其重啟,設為false時只有worker,沒有monitor,一般開發調試時設為false,線上運行時設為true,true後面不能有空格。 keepalive = true #工作線程數,對Atlas的性能有很大影響,可根據情況適當設置 event-threads = 8 #日誌級別,分為message、warning、critical、error、debug五個級別 log-level = message #日誌存放的路徑 log-path = /usr/local/mysql-proxy/log #SQL日誌的開關,可設置為OFF、ON、REALTIME,OFF代表不記錄SQL日誌,ON代表記錄SQL日誌,REALTIME代表記錄SQL日誌且實時寫入磁盤,默認為OFF #sql-log = OFF #慢日誌輸出設置。當設置了該參數時,則日誌只輸出執行時間超過sql-log-slow(單位:ms)的日誌記錄。不設置該參數則輸出全部日誌。 #sql-log-slow = 10 #實例名稱,用於同一臺機器上多個Atlas實例間的區分 #instance = test #Atlas監聽的工作接口IP和端口 proxy-address = ***.***.***.***:1234 #Atlas監聽的管理接口IP和端口 admin-address = ***.***.***.***:2345 #分表設置,此例中person為庫名,mt為表名,id為分表字段,3為子表數量,可設置多項,以逗號分隔,若不分表則不需要設置該項 #tables = person.mt.id.3 #默認字符集,設置該項後客戶端不再需要執行SET NAMES語句 #charset = utf8 #允許連接Atlas的客戶端的IP,可以是精確IP,也可以是IP段,以逗號分隔,若不設置該項則允許所有IP連接,否則只允許列表中的IP連接 #client-ips = 127.0.0.1, 192.168.1 #Atlas前面掛接的LVS的物理網卡的IP(註意不是虛IP),若有LVS且設置了client-ips則此項必須設置,否則可以不設置 #lvs-ips = 192.168.1.1
啟動atlas
測試讀寫分離
MGR是一主二從,主節點Server_id是8001,從節點的Server_id分別是8002和8003
可以發現讀信息重定向到8002節點,寫信息重定向到8001節點,實現了讀寫分離
強制關掉一個從節點,將讀重定向到次級讀節點。
讀重定向到8003節點,寫依舊是主節點,MGR狀態也正常,如果嘗試關閉所有的讀節點,讀將自動重定向到主(寫)節點,說明從節點的錯誤都是可以兼容的。
這一點說明,從(讀)節點的任何錯誤都是不影響atlas對外提供服務器的,如果做到主節點的高可用,atlas就可以完美地對外提供服務了。
Atlas中間件會自動過濾掉一些危險的操作,比如不帶where條件的delete就無法執行
尚無進行分表測試。
遇到的問題:
一開始服務無法啟動,出現錯誤日誌proxy-plugin.c.1783: I have no server backend, closing connection,是因為配置的user信息在每個節點不一致導致的。
後來修改pwds 節點的user信息,其中user的新在每一個節點都一致,包括用戶名和密碼,服務正常啟動。
基於MGR+Keepalived+Atlas的高可用加讀寫分離
後續可以嘗試,在MGR的基礎上做一個基於keepalived的自動故障轉移,寫節點可以基於VIP做自動故障轉移,
然後在此基礎上,基於VIP+其他節點做讀寫分離,理論上可以完美地實現自動故障轉移的高可用+讀寫分離。
這樣YY起來的話,感覺這樣子也略屌,自動故障轉移有了,讀寫分離也有了,理論上,只要有一個存活的節點,都可以正常對外提供服務。
基於MGR+Atlas的讀寫分離嘗試,以及MGR+Keepalived+Atlas自動故障轉移+讀寫分離設想