一、環境簡述
1、工作邏輯圖
2、MySQL-MMM優缺點
- 優點:高可用性,擴展性好,出現故障自動切換,對於主主同步,在同一時間只提供一台數據庫寫操作,保證的數據的一致性。
- 缺點:Monitor節點是單點,可以結合Keepalived實現高可用,對主機的數量有要求,需要實現讀寫分離,對程序來說是個挑戰。
3、MySQL-MMM工作原理
MMM(Master-Master replication managerfor Mysql,Mysql主主復制管理器)是一套靈活的腳本程序,基於perl實現,用來對mysql replication進行監控和故障遷移,並能管理mysql Master-Master復制的配置(同一時間只有一個節點是可寫的)。
- mmm_mond:監控進程,負責所有的監控工作,決定和處理所有節點角色活動。此腳本需要在監管機上運行。
- mmm_agentd:運行在每個mysql服務器上的代理進程,完成監控的探針工作和執行簡單的遠端服務設置。此腳本需要在被監管機上運行。
- mmm_control:一個簡單的腳本,提供管理mmm_mond進程的命令。
mysql-mmm的監管端會提供多個虛擬IP(VIP),包括一個可寫VIP,多個可讀VIP,通過監管的管理,這些IP會綁定在可用mysql之上,當某一台mysql宕機時,監管會將VIP遷移至其他mysql。
在整個監管過程中,需要在mysql中添加相關授權用戶,以便讓mysql可以支持監理機的維護。授權的用戶包括一個mmm_monitor用戶和一個mmm_agent用戶,如果想使用mmm的備份工具則還要添加一個mmm_tools用戶。
4、需求描述
- 操作系統:CentOS 6.5_X64
- 數據庫:MySQL 5.1
- MMM:MySQL-MMM 2.2.1
數據庫分配:
function | ip | hostname | server id |
monitoring host | 192.168.0.201 | monitor | 無 |
master 1 | 192.168.0.202 | db1 | 1 |
master 2 | 192.168.0.203 | db2 | 2 |
slave 1 | 192.168.0.204 | db3 | 3 |
slave 2 | 192.168.0.205 | db4 | 4 |
虛擬IP地址(VIP):
ip | role |
192.168.0.211 | writer |
192.168.0.212 | reader |
192.168.0.213 | reader |
數據庫同步需要的用戶:
function | description | privileges |
monitor user | mmm監控用於對mysql服務器進程健康檢查 | REPLICATION CLIENT |
agent user | mmm代理用來更改只讀模式,復制的主服務器等 | SUPER, REPLICATION CLIENT, PROCESS |
replication user | 用於復制 | REPLICATION SLAVE |
二、db1,db2,db3和db4安裝數據庫並配置
1
2
3
|
[root@db1 ~]# yum install mysql-server mysql
[root@db1 ~]# service mysqld start
[root@db1 ~]# mysqladmin -u root password 123.com
|
1
2
3
4
5
6
7
8
9
10
11
12
13
|
[root@db1 ~]# vi /etc/my.cnf #添加如下
[mysqld]
binlog-do-db=test #需要記錄二進制日志的數據庫,多個用逗號隔開
binlog-ignore-db=mysql,information_schema #不需要記錄二進制日志的數據庫,多個用逗號隔開
auto_increment_increment=2 #字段一次遞增多少
auto_increment_offset=1 #自增字段的起始值,值設置不同
replicate-do-db=test #同步的數據庫,多個寫多行
replicate-ignore-db = information_schema #不同步的數據庫,多個寫多行
server_id = 1 #每台設置不同
log_bin = mysql-bin
log_slave_updates #當一個主故障,另一個立即接管
sync-binlog=1 #每條自動更新,安全性高,默認是0
[root@db1 ~]# service mysqld restart
|
三、配置db1和db2主主同步
#先查看下log bin日志和pos值位置
db1配置如下:
1
2
3
4
5
6
7
8
9
10
|
[root@db1 ~]# mysql -u root -p123.com
mysql> GRANT REPLICATION SLAVE ON *.* TO 'replication'@'192.168.0.%' IDENTIFIED BY 'replication';
mysql> flush privileges;
mysql> change master to
-> master_host='192.168.0.203',
-> master_user='replication',
-> master_password='replication',
-> master_log_file='mysql-bin.000002',
-> master_log_pos=106; #對端狀態顯示的值
mysql> start slave; #啟動同步
|
db2配置如下:
1
2
3
4
5
6
7
8
9
10
|
[root@db2 ~]# mysql -u root -p123.com
mysql> GRANT REPLICATION SLAVE ON *.* TO 'replication'@'192.168.0.%' IDENTIFIED BY 'replication';
mysql> flush privileges;
mysql> change master to
-> master_host='192.168.0.202',
-> master_user='replication',
-> master_password='replication',
-> master_log_file='mysql-bin.000002',
-> master_log_pos=106;
mysql> start slave; #啟動同步
|
#主主同步配置完畢,查看同步狀態Slave_IO和Slave_SQL是YES說明主主同步成功。
在db2插入數據測試下:
在db2查看是否同步成功:
可以看到已經成功同步過去,同樣在db2插入到user表數據,也能同步過去。我們的雙主就成功了,開始做主從復制。
四、配置slave1和slave2做為master1的從庫
#先看下master1狀態值
在slave1和slave2分別執行:
1
2
3
4
5
6
|
mysql> change master to
-> master_host='192.168.0.202',
-> master_user='replication',
-> master_password='replication',
-> master_log_file='mysql-bin.000002',
-> master_log_pos=434;
|
在slave1和slave2查看如下說明主從復制成功。但是數據沒過來,這是因為主從復制原理只同步配置完后的增刪改記錄,以后的數據是不能同步的,我們可以把主的數據庫備份了,然后在送數據庫還原。
1
2
3
4
|
[root@db1 ~]# mysqldump -uroot -p123.com test > test.sql
[root@db1 ~]# scp test.sql root@192.168.0.204:/root/
[root@db1 ~]# scp test.sql root@192.168.0.205:/root/
[root@db3 ~]# mysql -u root -p123.com test
|
五、MySQL-MMM安裝配置
CentOS 默認沒有 mysql-mmm 軟件包,官方推薦使用 epel 的網絡源,五台都安裝epel:
1
|
rpm -ivh http://mirrors.ustc.edu.cn/fedora/epel/6/x86_64/epel-release-6-8.noarch.rpm
|
1、monitor節點安裝
1
|
[root@monitor1 ~]# yum -y install mysql-mmm-monitor
|
2、四台db節點安裝
1
|
[root@db1 ~]# yum -y install mysql-mmm-agent
|
3、在四台db節點授權monitor訪問
1
2
3
4
|
[root<a href="http://www.jobbole.com/members/8256fu">@db</a> ~]# mysql -u root -p123.com
mysql> GRANT REPLICATIONCLIENT ON *.* TO 'mmm_monitor'@'192.168.0.%' IDENTIFIED BY 'monitor';
mysql> GRANT SUPER,REPLICATION CLIENT, PROCESS ON *.* TO 'mmm_agent'@'192.168.0.%' IDENTIFIED BY'agent';
|
4、修改mmm_common.conf文件(五台相同)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
|
[root@monitor1 ~]# vi /etc/mysql-mmm/mmm_common.conf
active_master_role writer
<host default>
cluster_interface eth0
pid_path /var/run/mysql-mmm/mmm_agentd.pid
bin_path /usr/libexec/mysql-mmm/
replication_user replication
replication_password replication
agent_user mmm_agent
agent_password agent
</host>
<host db1>
ip 192.168.0.202
mode master
peer db2
</host>
<host db2>
ip 192.168.0.203
mode master
peer db1
</host>
<host db3>
ip 192.168.0.204
mode slave
</host>
<host db4>
ip 192.168.0.205
mode slave
</host>
<role writer>
hosts db1, db2
ips 192.168.0.211
mode exclusive #只有一個host可以writer,一般寫操作是這個模式
</role>
<role reader>
hosts db3, db4
ips 192.168.0.212,192.168.0.213
mode balanced #多個host可以reader,一般讀操作是這個模式
</role>
|
#通過scp命令傳送到其他四台:
1
|
scp /etc/mysql-mmm/mmm_common.conf root@192.168.0.202/203/204/205:/etc/mysql-mmm/
|
5、修改四台db代理端 mmm_agent.conf 文件
1
2
3
|
[root<a href="http://www.jobbole.com/members/8256fu">@db</a> ~]# vi /etc/mysql-mmm/mmm_agent.conf
include mmm_common.conf
this db1 #分別修改為本機的主機名,即db1、db2、db3和db4
|
6、修改管理端mmm_mon.conf文件
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
[root@monitor1 ~]# vi /etc/mysql-mmm/mmm_mon.conf
include mmm_common.conf
<monitor>
ip 127.0.0.1
pid_path /var/run/mysql-mmm/mmm_mond.pid
bin_path /usr/libexec/mysql-mmm
status_path /var/lib/mysql-mmm/mmm_mond.status
ping_ips 192.168.0.202,192.168.0.203,192.168.0.204,192.168.0.205
#真實數據庫IP,來檢測網絡是否正常
auto_set_online 10 #恢復后自動設置在線的時間
</monitor>
<host default>
monitor_user mmm_monitor
monitor_password monitor
</host>
debug 0
|
六、啟動MySQL-MMM
1、db代理端啟動
1
2
|
[root@db1 ~]# /etc/init.d/mysql-mmm-agent start
[root@db1 ~]# chkconfigmysql-mmm-agent on
|
2、monitor管理端啟動
1
2
|
[root@monitor1 ~]# /etc/init.d/mysql-mmm-monitor start
[root@monitor1 ~]# chkconfigmysql-mmm-monitor on
|
七、測試集群
1、查看集群狀態
由此看來,主db1是對外一個寫入的角色,但不真正提供只寫,要想實現讀寫分離還需要結合amoeba。后面的虛擬IP是真正來訪問Mysql數據庫的。
2、故障轉移
切換停掉主db1數據庫,等待幾秒后,可以看到數據庫db1處於HARD_OFFLINE(離線狀態),檢測不到數據庫的存在。啟動主db1數據庫后,可以看到數據庫db1處於AWAITING_RECOVER(恢復狀態),幾秒后將恢復在線狀態。模擬Slave故障也是如此,DOWN掉一個,虛擬IP會全部在另一台正常數據庫上。
至此,MySQL-MMM架構配置完畢。后續會寫在此基礎上實現讀寫分離、負載均衡機制。如圖: