原址如下:
http://heylinux.com/archives/1004.html
Mysql作為目前世界上使用最廣泛的免費數據庫,相信所有從事系統運維的工程師都一定接觸過。但在實際的生產環境中,由單台Mysql作為獨立的數據庫是完全不能滿足實際需求的,無論是在安全性,高可用性以及高並發等各個方面。
因此,一般來說都是通過 主從復制(Master-Slave)的方式來同步數據,再通過讀寫分離(MySQL-Proxy)來提升數據庫的並發負載能力 這樣的方案來進行部署與實施的。
如下圖所示:
下面是我在實際工作過程中所整理的筆記,在此分享出來,以供大家參考。
一、MySQL的安裝與配置
具體的安裝過程,建議參考我的這一篇文章:http://heylinux.com/archives/993.html
值得一提的是,我的安裝過程都是源碼包編譯安裝的,並且所有的配置與數據等都統一規划到了/opt/mysql目錄中,因此在一台服務器上安裝完成以后,可以將整個mysql目錄打包,然后傳到其它服務器上解包,便可立即使用。
二、MySQL主從復制
場景描述:
主數據庫服務器:192.168.10.130,MySQL已經安裝,並且無應用數據。
從數據庫服務器:192.168.10.131,MySQL已經安裝,並且無應用數據。
2.1 主服務器上進行的操作
啟動mysql服務
/opt/mysql/init.d/mysql start
通過命令行登錄管理MySQL服務器
/opt/mysql/bin/mysql -uroot -p'new-password'
授權給從數據庫服務器192.168.10.131
mysql> GRANT REPLICATION SLAVE ON *.* to 'rep1'@'192.168.10.131' identified by ‘password’;
查詢主數據庫狀態
Mysql> show master status;
+------------------+----------+--------------+------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+------------------+----------+--------------+------------------+
| mysql-bin.000005 | 261 | | |
+------------------+----------+--------------+------------------+
記錄下 FILE 及 Position 的值,在后面進行從服務器操作的時候需要用到。
2.2 配置從服務器
修改從服務器的配置文件/opt/mysql/etc/my.cnf
將 server-id = 1修改為 server-id = 10,並確保這個ID沒有被別的MySQL服務所使用。
啟動mysql服務
/opt/mysql/init.d/mysql start
通過命令行登錄管理MySQL服務器
/opt/mysql/bin/mysql -uroot -p'new-password'
執行同步SQL語句
mysql> change master to
master_host=’192.168.10.130’,
master_user=’rep1’,
master_password=’password’,
master_log_file=’mysql-bin.000005’,
master_log_pos=261;
正確執行后啟動Slave同步進程
mysql> start slave;
主從同步檢查
mysql> show slave status\G
==============================================
**************** 1. row *******************
Slave_IO_State:
Master_Host: 192.168.10.130
Master_User: rep1
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-bin.000005
Read_Master_Log_Pos: 415
Relay_Log_File: localhost-relay-bin.000008
Relay_Log_Pos: 561
Relay_Master_Log_File: mysql-bin.000005
Slave_IO_Running: YES
Slave_SQL_Running: YES
Replicate_Do_DB:
……………省略若干……………
Master_Server_Id: 1
1 row in set (0.01 sec)
==============================================
其中Slave_IO_Running 與 Slave_SQL_Running 的值都必須為YES,才表明狀態正常。
如果主服務器已經存在應用數據,則在進行主從復制時,需要做以下處理:
(1)主數據庫進行鎖表操作,不讓數據再進行寫入動作
mysql> FLUSH TABLES WITH READ LOCK;
(2)查看主數據庫狀態
mysql> show master status;
(3)記錄下 FILE 及 Position 的值。
將主服務器的數據文件(整個/opt/mysql/data目錄)復制到從服務器,建議通過tar歸檔壓縮后再傳到從服務器解壓。
(4)取消主數據庫鎖定
mysql> UNLOCK TABLES;
2.3 驗證主從復制效果
主服務器上的操作
在主服務器上創建數據庫first_db
mysql> create database first_db;
Query Ok, 1 row affected (0.01 sec)
在主服務器上創建表first_tb
mysql> create table first_tb(id int(3),name char(10));
Query Ok, 1 row affected (0.00 sec)
在主服務器上的表first_tb中插入記錄
mysql> insert into first_tb values (001,’myself’);
Query Ok, 1 row affected (0.00 sec)
在從服務器上查看
mysql> show databases;
=============================
+--------------------+
| Database |
+--------------------+
| information_schema |
| first_db |
| mysql |
| performance_schema |
| test |
+--------------------+
5 rows in set (0.01 sec)
=============================
數據庫first_db已經自動生成
mysql> use first_db
Database chaged
mysql> show tables;
=============================
+--------------------+
| Tables_in_first_db |
+--------------------+
| first_tb |
+--------------------+
1 row in set (0.02 sec)
=============================
數據庫表first_tb也已經自動創建
mysql> select * from first_tb;
=============================
+------+------+
| id | name |
+------+------+
| 1 | myself |
+------+------+
1 rows in set (0.00 sec)
=============================
記錄也已經存在
由此,整個MySQL主從復制的過程就完成了,接下來,我們進行MySQL讀寫分離的安裝與配置。
三、MySQL讀寫分離
場景描述:
數據庫Master主服務器:192.168.10.130
數據庫Slave從服務器:192.168.10.131
MySQL-Proxy調度服務器:192.168.10.132
以下操作,均是在192.168.10.132即MySQL-Proxy調度服務器 上進行的。
3.1 MySQL的安裝與配置
具體的安裝過程與上文相同。
3.2 檢查系統所需軟件包
通過 rpm -qa | grep name 的方式驗證以下軟件包是否已全部安裝。
gcc* gcc-c++* autoconf* automake* zlib* libxml* ncurses-devel* libmcrypt* libtool* flex* pkgconfig*
libevent* glib*
若缺少相關的軟件包,可通過yum -y install方式在線安裝,或直接從系統安裝光盤中找到並通過rpm -ivh方式安裝。
3.3 編譯安裝lua
MySQL-Proxy的讀寫分離主要是通過rw-splitting.lua腳本實現的,因此需要安裝lua。
lua可通過以下方式獲得
從http://www.lua.org/download.html下載源碼包
從rpm.pbone.NET搜索相關的rpm包
download.fedora.redhat.com/pub/fedora/epel/5/i386/lua-5.1.4-4.el5.i386.rpm
download.fedora.redhat.com/pub/fedora/epel/5/x86_64/lua-5.1.4-4.el5.x86_64.rpm
這里我們建議采用源碼包進行安裝
cd /opt/install
wget http://www.lua.org/ftp/lua-5.1.4.tar.gz
tar zvfx lua-5.1.4.tar.gz
cd lua-5.1.4
vi src/Makefile
在 CFLAGS= -O2 -Wall $(MYCFLAGS) 這一行記錄里加上-fPIC,更改為 CFLAGS= -O2 -Wall -fPIC $(MYCFLAGS) 來避免編譯過程中出現錯誤。
make Linux
make install
cp etc/lua.pc /usr/lib/pkgconfig/
export PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/lib/pkgconfig
3.4 安裝配置MySQL-Proxy
MySQL-Proxy可通過以下網址獲得:
http://mysql.cdpa.nsysu.edu.tw/Downloads/MySQL-Proxy/
推薦采用已經編譯好的二進制版本,因為采用源碼包進行編譯時,最新版的MySQL-Proxy對automake,glib以及libevent的版本都有很高的要求,而這些軟件包都是系統的基礎套件,不建議強行進行更新。
並且這些已經編譯好的二進制版本在解壓后都在統一的目錄內,因此建議選擇以下版本:
32位RHEL5平台:
http://mysql.cdpa.nsysu.edu.tw/Downloads/MySQL-Proxy/mysql-proxy-0.8.1-linux-rhel5-x86-32bit.tar.gz
64位RHEL5平台:
http://mysql.cdpa.nsysu.edu.tw/Downloads/MySQL-Proxy/mysql-proxy-0.8.1-linux-rhel5-x86-64bit.tar.gz
測試平台為RHEL5 32位,因此選擇32位的軟件包
wget http://mysql.cdpa.nsysu.edu.tw/Downloads/MySQL-Proxy/mysql-proxy-0.8.1-linux-rhel5-x86-32bit.tar.gz
tar xzvf mysql-proxy-0.8.1-linux-rhel5-x86-32bit.tar.gz
mv mysql-proxy-0.8.1-linux-rhel5-x86-32bit /opt/mysql-proxy
創建mysql-proxy服務管理腳本
mkdir /opt/mysql-proxy/init.d/
vim mysql-proxy
01 |
#!/bin/sh |
02 |
# |
03 |
# mysql-proxy This script starts and stops the mysql-proxy daemon |
04 |
# |
05 |
# chkconfig: - 78 30 |
06 |
# processname: mysql-proxy |
07 |
# description: mysql-proxy is a proxy daemon to mysql |
08 |
09 |
# Source function library. |
10 |
. /etc/rc.d/init.d/functions |
11 |
12 |
#PROXY_PATH=/usr/local/bin |
13 |
PROXY_PATH=/opt/mysql-proxy/bin |
14 |
15 |
prog= "mysql-proxy" |
16 |
17 |
# Source networking configuration. |
18 |
. /etc/sysconfig/network |
19 |
20 |
# Check that networking is up. |
21 |
[ ${NETWORKING} = "no" ] && exit 0 |
22 |
23 |
# Set default mysql-proxy configuration. |
24 |
#PROXY_OPTIONS="--daemon" |
25 |
PROXY_OPTIONS= "--admin-username=root --admin-password=password --proxy-read-only-backend-addresses=192.168.10.131:3306 --proxy-backend-addresses=192.168.10.130:3306 --admin-lua-script=/opt/mysql-proxy/lib/mysql-proxy/lua/admin.lua --proxy-lua-script=/opt/mysql-proxy/scripts/rw-splitting.lua" |
26 |
PROXY_PID=/opt/mysql-proxy/run/mysql-proxy.pid |
27 |
28 |
# Source mysql-proxy configuration. |
29 |
if [ -f /etc/sysconfig/mysql-proxy ]; then |
30 |
. /etc/sysconfig/mysql-proxy |
31 |
fi |
32 |
33 |
PATH=$PATH:/usr/bin:/usr/ local /bin:$PROXY_PATH |
34 |
35 |
# By default it's all good |
36 |
RETVAL=0 |
37 |
38 |
# See how we were called. |
39 |
case "$1" in |
40 |
start) |
41 |
# Start daemon. |
42 |
echo -n $ "Starting $prog: " |
43 |
$NICELEVEL $PROXY_PATH/mysql-proxy $PROXY_OPTIONS --daemon --pid- file =$PROXY_PID --user=mysql --log-level=warning --log- file =/opt/mysql-proxy/log/mysql-proxy.log |
44 |
RETVAL=$? |
45 |
echo |
46 |
if [ $RETVAL = 0 ]; then |
47 |
touch /var/lock/subsys/mysql-proxy |
48 |
fi |
49 |
;; |
50 |
stop) |
51 |
# Stop daemons. |
52 |
echo -n $ "Stopping $prog: " |
53 |
killproc $prog |
54 |
RETVAL=$? |
55 |
echo |
56 |
if [ $RETVAL = 0 ]; then |
57 |
rm -f /var/lock/subsys/mysql-proxy |
58 |
rm -f $PROXY_PID |
59 |
fi |
60 |
;; |
61 |
restart) |
62 |
$0 stop |
63 |
sleep 3 |
64 |
$0 start |
65 |
;; |
66 |
condrestart) |
67 |
[ -e /var/lock/subsys/mysql-proxy ] && $0 restart |
68 |
;; |
69 |
status) |
70 |
status mysql-proxy |
71 |
RETVAL=$? |
72 |
;; |
73 |
*) |
74 |
echo "Usage: $0 {start|stop|restart|status|condrestart}" |
75 |
RETVAL=1 |
76 |
;; |
77 |
esac |
78 |
79 |
exit $RETVAL |
腳本參數詳解:
==============================================
PROXY_PATH=/opt/mysql-proxy/bin //定義mysql-proxy服務二進制文件路徑
PROXY_OPTIONS="--admin-username=root \ //定義內部管理服務器賬號
--admin-password=password \ //定義內部管理服務器密碼
--proxy-read-only-backend-addresses=192.168.10.131:3306 \ //定義后端只讀從服務器地址
--proxy-backend-addresses=192.168.10.130:3306 \ //定義后端主服務器地址
--admin-lua-script=/opt/mysql-proxy/lib/mysql-proxy/lua/admin.lua \ //定義lua管理腳本路徑
--proxy-lua-script=/opt/mysql-proxy/scripts/rw-splitting.lua" \ //定義lua讀寫分離腳本路徑
PROXY_PID=/opt/mysql-proxy/run/mysql-proxy.pid //定義mysql-proxy PID文件路徑
$NICELEVEL $PROXY_PATH/mysql-proxy $PROXY_OPTIONS \
--daemon \ //定義以守護進程模式啟動
--keepalive \ //使進程在異常關閉后能夠自動恢復
--pid-file=$PROXY_PID \ //定義mysql-proxy PID文件路徑
--user=mysql \ //以mysql用戶身份啟動服務
--log-level=warning \ //定義log日志級別,由高到低分別有(error|warning|info|message|debug)
--log-file=/opt/mysql-proxy/log/mysql-proxy.log //定義log日志文件路徑
==============================================
cp mysql-proxy /opt/mysql-proxy/init.d/
chmod +x /opt/mysql-proxy/init.d/mysql-proxy
mkdir /opt/mysql-proxy/run
mkdir /opt/mysql-proxy/log
mkdir /opt/mysql-proxy/scripts
配置並使用rw-splitting.lua讀寫分離腳本
最新的腳本我們可以從最新的mysql-proxy源碼包中獲取
cd /opt/install
wget http://mysql.cdpa.nsysu.edu.tw/Downloads/MySQL-Proxy/mysql-proxy-0.8.1.tar.gz
tar xzvf mysql-proxy-0.8.1.tar.gz
cd mysql-proxy-0.8.1
cp lib/rw-splitting.lua /opt/mysql-proxy/scripts
修改讀寫分離腳本rw-splitting.lua
修改默認連接,進行快速測試,不修改的話要達到連接數為4時才啟用讀寫分離
vim /opt/mysql-proxy/scripts/rw-splitting.lua
=============================
-- connection pool
if not proxy.global.config.rwsplit then
proxy.global.config.rwsplit = {
min_idle_connections = 1, //默認為4
max_idle_connections = 1, //默認為8
is_debug = false
}
end
=============================
修改完成后,啟動mysql-proxy
/opt/mysql-proxy/init.d/mysql-proxy start
3.5 測試讀寫分離效果
創建用於讀寫分離的數據庫連接用戶
登陸主數據庫服務器192.168.10.130,通過命令行登錄管理MySQL服務器
/opt/mysql/bin/mysql -uroot -p'new-password'
mysql> GRANT ALL ON *.* TO 'proxy1'@'192.168.10.132' IDENTIFIED BY 'password';
由於我們配置了主從復制功能,因此從數據庫服務器192.168.10.131上已經同步了此操作。
為了清晰的看到讀寫分離的效果,需要暫時關閉MySQL主從復制功能
登陸從數據庫服務器192.168.10.131,通過命令行登錄管理MySQL服務器
/opt/mysql/bin/mysql -uroot -p'new-password'
關閉Slave同步進程
mysql> stop slave;
Query OK, 0 rows affected (0.00 sec)
連接MySQL-Proxy
/opt/mysql/bin/mysql -uproxy1 -p'password' -P4040 -h192.168.10.132
登陸成功后,在first_db數據的first_tb表中插入兩條記錄
mysql> use first_db;
Database changed
mysql> insert into first_tb values (007,’first’);
Query Ok, 1 row affected (0.00 sec)
mysql> insert into first_tb values (110,’second’);
Query Ok, 1 row affected (0.00 sec)
查詢記錄
mysql> select * from first_tb;
=============================
+------+------+
| id | name |
+------+------+
| 1 | myself |
+------+------+
1 rows in set (0.00 sec)
=============================
通過讀操作並沒有看到新記錄
mysql> quit
退出MySQL-Proxy
下面,分別登陸到主從數據庫服務器,對比記錄信息
首先,檢查主數據庫服務器
mysql> select * from first_tb;
=============================
+------+------+
| id | name |
+------+------+
| 1 | myself |
+------+------+
| 007 | first |
+------+------+
| 110 | second |
+------+------+
3 rows in set (0.00 sec)
=============================
兩條新記錄都已經存在
然后,檢查從數據庫服務器
mysql> select * from first_tb;
=============================
+------+------+
| id | name |
+------+------+
| 1 | myself |
+------+------+
1 rows in set (0.00 sec)
=============================
沒有新記錄存在
由此驗證,我們已經實現了MySQL讀寫分離,目前所有的寫操作都全部在Master主服務器上,用來避免數據的不同步;
另外,所有的讀操作都分攤給了其它各個Slave從服務器上,用來分擔數據庫壓力。
經驗分享:
1.當MySQL主從復制在 show slave status\G 時出現Slave_IO_Running或Slave_SQL_Running 的值不為YES時,需要首先通過 stop slave 來停止從服務器,然后再執行一次本文 2.1與2.2 章節中的步驟即可恢復,但如果想盡可能的同步更多的數據,可以在Slave上將master_log_pos節點的值在之前同步失效的值的基礎上增大一些,然后反復測試,直到同步OK。因為MySQL主從復制的原理其實就是從服務器讀取主服務器的binlog,然后根據binlog的記錄來更新數據庫。
2.MySQL-Proxy的rw-splitting.lua腳本在網上有很多版本,但是最准確無誤的版本仍然是源碼包中所附帶的lib/rw-splitting.lua腳本,如果有lua腳本編程基礎的話,可以在這個腳本的基礎上再進行優化;
3.MySQL-Proxy實際上非常不穩定,在高並發或有錯誤連接的情況下,進程很容易自動關閉,因此打開--keepalive參數讓進程自動恢復是個比較好的辦法,但還是不能從根本上解決問題,因此通常最穩妥的做法是在每個從服務器上安裝一個MySQL-Proxy供自身使用,雖然比較低效但卻能保證穩定性;
4.一主多從的架構並不是最好的架構,通常比較優的做法是通過程序代碼和中間件等方面,來規划,比如設置對表數據的自增id值差異增長等方式來實現兩個或多個主服務器,但一定要注意保證好這些主服務器數據的完整性,否則效果會比多個一主多從的架構還要差;
5.MySQL-Cluster 的穩定性也不是太好;
6.Amoeba for MySQL 是一款優秀的中間件軟件,同樣可以實現讀寫分離,負載均衡等功能,並且穩定性要大大超過MySQL-Proxy,建議大家用來替代MySQL-Proxy,甚至MySQL-Cluster。
詳解Mysql Proxy Lua讀寫分離設置
原址如下:
http://mobile.51cto.com/iphone-287937.htm
Mysql Proxy Lua讀寫分離設置是本文要介紹的內容,主要是來了解Mysql Proxy的Mysql 分離設置,為了未來MySQL讀寫分離的需要, 先行對MySQL官方的Mysql Proxy產品進行了初步測試. 以下是測試過程,二進制版Mysql Proxy可以去下載。
1、設置說明
- Master服務器: 192.168.41.196
- Slave服務器: 192.168.41.197
- Proxy服務器: 192.168.41.203
2、安裝Mysql Proxy
在Proxy服務器上安裝即可. 如果源碼方式安裝, 需提前安裝pkg-config,libevent,glibc,lua等依賴包, 非常麻煩, 建議直接使用二進制版.
- # cd /u01/software/mysql
- # tar -zxvf Mysql Proxy-0.8.1-linux-rhel5-x86-32bit.tar.gz -C /usr/local
- # cd /usr/local
- # ln -s Mysql Proxy-0.8.1-linux-rhel5-x86-32bit Mysql Proxy
- # vi + ~/.bash_profile
- export PATH=$PATH:/usr/local/Mysql Proxy/bin/
- # . ~/.bash_profile
3、Mysql Proxy選項說明
- # Mysql Proxy help-all
管理功能選項:
- admin-address=host:port 指定一個mysqo-proxy的管理端口, 缺省是4041;
- admin-username=<string> username to allow to log in
- admin-password=<string> password to allow to log in
- admin-lua-script=<filename> script to execute by the admin plugin
代理功能選項:
- -P, proxy-address=<host:port> 是Mysql Proxy 服務器端的監聽端口, 缺省是4040;
- -r, proxy-read-only-backend-addresses=<host:port> 只讀Slave的地址和端口, 缺省為不設置;
- -b, proxy-backend-addresses=<host:port> 遠程Master地址和端口, 可設置多個做failover和load balance, 缺省是127.0.0.1:3306;
- proxy-skip-profiling 關閉查詢分析功能, 缺省是打開的;
- proxy-fix-bug-25371 修正 mysql的libmysql版本大於5.1.12的一個#25371號bug;
- -s, proxy-lua-script=<file> 指定一個Lua腳本來控制Mysql Proxy的運行和設置, 這個腳本在每次新建連接和腳本發生修改的的時候將重新調用;
其他選項:
- defaults-file=<file>配置文件, 可以把Mysql Proxy的參數信息置入一個配置文件里;
- daemon Mysql Proxy以守護進程方式運行
- pid-file=file 設置Mysql Proxy的存儲PID文件的路徑
- keepalive try to restart the proxy if it crashed, 保持連接啟動進程會有2個, 一號進程用來監視二號進程, 如果二號進程死掉自動重啟proxy.
4、數據庫准備工作
(1)安裝半同步補丁(建議)
讀寫分離不能回避的問題之一就是延遲, 可以考慮Google提供的SemiSyncReplication補丁.
(2)給用戶授權
在Master/Slave建立一個測試用戶, 因為以后客戶端發送的SQL都是通過Mysql Proxy服務器來轉發, 所以要確保可以從Mysql Proxy服務器上登錄MySQL主從庫.
- mysql> grant all privileges on *.* to 'u_test'@'192.168.41.203' identified by 'xxx' with grant option;
(3)在Master建立測試表
- mysql> create table db_test.t_test (col varchar(10));
- mysql> insert into db_test.t_test values ('testA');
- mysql> select * from db_test.t_test;
- +-+
- | col |
- +-+
- | testA |
- +-+
5、Mysql Proxy啟動
(1)修改讀寫分離lua腳本
默認最小4個最大8個以上的客戶端連接才會實現讀寫分離, 現改為最小1個最大2個:
- # vi +40 /usr/local/Mysql Proxy/share/doc/Mysql Proxy/rw-splitting.lua
- connection pool
- if not proxy.global.config.rwsplit then
- proxy.global.config.rwsplit = {
- min_idle_connections = 1,
- max_idle_connections = 2,
- is_debug = true
- }
- end
這是因為Mysql Proxy會檢測客戶端連接, 當連接沒有超過min_idle_connections預設值時, 不會進行讀寫分離, 即查詢操作會發生到Master上.
(2)啟動Mysql Proxy
建議使用配置文件的形式啟動, 注意配置文件必須是660權限, 否則無法啟動. 如果有多個Slave的話, proxy-read-only-backend-addresses參數可以配置多個以逗號分隔的IP:Port從庫列表.
- # killall Mysql Proxy
- # vi /etc/Mysql Proxy.cnf
- [Mysql Proxy]
- admin-username=wangnc
- admin-password=iamwangnc
- admin-lua-script=/usr/local/Mysql Proxy/lib/Mysql Proxy/lua/admin.lua
- proxy-backend-addresses=192.168.41.196:3351
- proxy-read-only-backend-addresses=192.168.41.197:3351
- proxy-lua-script=/usr/local/Mysql Proxy/share/doc/Mysql Proxy/rw-splitting.lua
- log-file=/var/tmp/Mysql Proxy.log
- log-level=debug
- daemon=true
- keepalive=true
- # chmod 660 /etc/Mysql Proxy.cnf
- # Mysql Proxy defaults-file=/etc/Mysql Proxy.cnf
- # ps -ef | grep Mysql Proxy | grep -v grep
- root 1869 1 0 18:16 ? 00:00:00 /usr/local/Mysql Proxy/libexec/Mysql Proxy defaults-file=/etc/Mysql Proxy.cnf
- root 1870 1869 0 18:16 ? 00:00:00 /usr/local/Mysql Proxy/libexec/Mysql Proxy defaults-file=/etc/Mysql Proxy.cnf
- # tail -50f /var/tmp/Mysql Proxy.log
6、客戶端連接測試
(1)先停止Slave的復制進程
- mysql> stop slave;
(2)連接Proxy端口, 插入數據
- # mysql -uu_test -pxxx -h192.168.41.203 -P4040 -Ddb_test
- mysql> insert into db_test.t_test values ('testB');
- mysql> select * from db_test.t_test;
- +-+
- | col |
- +-+
- | testA |
- | testB |
- +-+
(3)多開幾個客戶端, 連接Proxy端口, 查詢數據
- # mysql -uu_test -pxxx -h192.168.41.203 -P4040 -Ddb_test
- mysql> select * from db_test.t_test;
- +-+
- | col |
- +-+
- | testA |
- +-+
如果查詢不到上步新插入的數據, 說明連接到了Slave, 讀寫分離成功. 在同一線程再插入數據並驗證:
- mysql> insert into db_test.t_test values ('testC');
- mysql> select * from db_test.t_test;
- +-+
- | col |
- +-+
- | testA |
- +-+
發現insert操作成功, 但是select不出剛插入的數據, 說明同一線程也讀寫分離成功. 從日志中可以驗證:
- # tail -50f /var/tmp/Mysql Proxy.log
- ...
- [read_query] 192.168.41.203:45481
- current backend = 0
- client default db = db_test
- client username = u_test
- query = select * from db_test.t_test
- sending to backend : 192.168.41.197:3351
- is_slave : true
- server default db: db_test
- server username : u_test
- in_trans : false
- in_calc_found : false
- COM_QUERY : true
- [read_query] 192.168.41.203:45481
- current backend = 0
- client default db = db_test
- client username = u_test
- query = insert into db_test.t_test values ('testC')
- sending to backend : 192.168.41.196:3351
- is_slave : false
- server default db: db_test
- server username : u_test
- in_trans : false
- in_calc_found : false
- COM_QUERY : true
(4)測試完畢后, 啟動Slave的復制進程
- mysql> start slave;
7、正式環境說明
1、Mysql Proxy當前還只是個測試版, MySQL官方還不建議用到生產環境中;
2、Mysql Proxy的rw-splitting.lua腳本在網上有很多版本, 但是最准確無誤的版本仍然是源碼包中所附帶的rw-splitting.lua腳本, 如果有lua腳本編程基礎的話, 可以在這個腳本的基礎上再進行優化;
3、Mysql Proxy實際上非常不穩定, 在高並發或有錯誤連接的情況下, 進程很容易自動關閉, 因此打開keepalive參數讓進程自動恢復是個比較好的辦法, 但還是不能從根本上解決問題, 因此通常最穩妥的做法是在每個從服務器上安裝一個Mysql Proxy供自身使用, 雖然比較低效但卻能保證穩定性;
4、Amoeba for MySQL是一款優秀的中間件軟件, 同樣可以實現讀寫分離, 負載均衡等功能, 並且穩定性要大大超過Mysql Proxy, 建議大家用來替代Mysql Proxy, 甚至MySQL-Cluster.
mysql的讀寫分離amoeba
原址如下:
http://freeze.blog.51cto.com/1846439/860111
此文凝聚筆者不少心血請尊重筆者勞動,轉載請注明出處http://freeze.blog.51cto.com/
一、關於讀寫分離
- 讀寫分離(Read/Write Splitting),基本的原理是讓主數據庫處理事務性增、改、刪操作(INSERT、UPDATE、DELETE),而從數據庫處理SELECT查詢操作。數據庫復制被用來把事務性操作導致的變更同步到集群中的從數據庫。
二、同類產品比較
- 雖然大多數都是從程序里直接實現讀寫分離的,但對於分布式的部署和水平和垂直分割,一些代理的類似中間件的軟件還是挺實用的,Amoeba for Mysql 與MySQL Proxy比較 在MySQL proxy 6.0版本 上面如果想要讀寫分離並且 讀集群、寫集群 機器比較多情況下,用mysql proxy 需要相當大的工作量,目前mysql proxy沒有現成的 lua腳本。mysql proxy根本沒有配置文件, lua腳本就是它的全部,當然lua是相當方便的。那么同樣這種東西需要編寫大量的腳本才能完成一 個復雜的配置。而Amoeba for Mysql只需要進行相關的配置就可以滿足需求。
- Amoeba(變形蟲)項目,該開源框架於2008年 開始發布一款 Amoeba for Mysql軟件。這個軟件致力於MySQL的分布式數據庫前端代理層,它主要在應用層訪問MySQL的 時候充當SQL路由功能,專注於分布式數據庫代理層(Database Proxy)開發。座落與 Client、DB Server(s)之間,對客戶端透明。具有負載均衡、高可用性、SQL 過濾、讀寫分離、可路由相關的到目標數據庫、可並發請求多台數據庫合並結果。 通過Amoeba你能夠完成多數據源的高可用、負載均衡、數據切片的功能,目前Amoeba已在很多 企業的生產線上面使用。
四、Amoeba的安裝
4.1下載
- wget http://nchc.dl.sourceforge.net/project/amoeba/Amoeba%20for%20mysql/2.x/amoeba-mysql-binary-2.1.0-RC5.tar.gz
4.2安裝amoeba
- mkdir /usr/local/amoeba
- #mv amoeba-mysql-binary-2.1.0-RC5.tar.gz /usr/local/amoeba
- #tar xvf amoeba-mysql-binary-2.1.0-RC5.tar.gz
4.3安裝JDK
- 因為Amoeba是java開發的,需要JDK支持。 Amoeba框架是基於Java SE1.5開發的,建議使用Java SE 1.5版本。
- % java -version
- java version "1.6.0_18"
- Java(TM) SE Runtime Environment (build 1.6.0_18-b07)
- Java HotSpot(TM) Client VM (build 16.0-b13, mixed mode, sharing)
- 目前Amoeba經驗證在JavaTM SE 1.5和Java SE 1.6能正常運行,(可能包括其他未經驗證的版本)。 如果你的機器上沒有安裝JavaTM環境,可以訪問http://www.oracle.com/technetwork/java/javase/downloads/index.html進行下載。可以根據你的操作系統等詳情安裝JavaTM環境。
- 去oracle官網下載jdk安裝包后,安裝jdk
- # chmod 755 jdk-6u25-linux-i586.bin
- # ./jdk-6u25-linux-i586.bin
- # mv jdk1.6.0_25/ /usr/local/jdk
- 聲明路徑,修改/etc/profile,在末尾加上以下代碼
- export AMOEBA_HOME=/usr/local/amoeba
- export JAVA_HOME=/usr/local/jdk
- export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$AMOEBA_HOME/bin
五、Amoeba配置
- cd /usr/local/amoeba/conf 主要配置以下2個配置文件:
- dbServers.xml #定義連接數據庫信息
- amoeba.xml #定義讀寫分離節點管理信息
5.1 配置dbServers.xml
- <?xml version="1.0" encoding="gbk"?>
- <!DOCTYPE amoeba:dbServers SYSTEM "dbserver.dtd">
- <amoeba:dbServers xmlns:amoeba="http://amoeba.meidusa.com/">
- <!--
- Each dbServer needs to be configured into a Pool,
- such as 'multiPool' dbServer
- -->
- <dbServer name="abstractServer" abstractive="true">
- <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
- <property name="manager">${defaultManager}</property>
- <property name="sendBufferSize">64</property>
- <property name="receiveBufferSize">128</property>
- <!-- mysql port -->
- <property name="port">3306</property> __ ** ##后端數據庫端口**__
- <!-- mysql schema -->
- <property name="schema">test</property> __ ** ##后端數據庫默認庫**__
- <!-- mysql password
- <property name="password">password</property>
- -->
- </factoryConfig>
- <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
- <property name="maxActive">500</property>
- <property name="maxIdle">500</property>
- <property name="minIdle">10</property>
- <property name="minEvictableIdleTimeMillis">600000</property>
- <property name="timeBetweenEvictionRunsMillis">600000</property>
- <property name="testOnBorrow">true</property>
- <property name="testWhileIdle">true</property>
- </poolConfig>
- </dbServer>
- <dbServer name="master" parent="abstractServer"> __ ** ##定義主的寫的節點**__
- <factoryConfig>
- <property name="ipAddress">192.168.1.1</property> __ ** ##主masterIP**__
- <property name="user">test1</property> __ ** ##與主mysql通信,連接數據庫的帳號,以下是密碼**__
- <property name="password">test1</property>
- </factoryConfig>
- </dbServer>
- <dbServer name="slave" parent="abstractServer">
- <factoryConfig>
- <property name="ipAddress">192.168.1.2</property>
- <property name="user">test2</property> __ ** ##與從mysql通信,連接數據庫的帳號,以下是密碼**__
- <property name="password">test2</property>
- </factoryConfig>
- </dbServer>
- <dbServer name="server1" virtual="true">
- <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool"> __ ** ##定義寫的池,把master節點加入**__
- <property name="loadbalance">1</property>
- <property name="poolNames">master</property>
- </poolConfig>
- </dbServer>
- <dbServer name="server2" virtual="true">
- <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool"> __ ** ##定義讀的池,把slave節點加入**__
- <property name="loadbalance">1</property>
- <property name="poolNames">slave</property>
- </poolConfig>
- </dbServer>
- </amoeba:dbServers>
5.2 配置amoeba.xml
- <?xml version="1.0" encoding="gbk"?>
- <amoeba:configuration xmlns:amoeba="http://amoeba.meidusa.com/">
- <proxy>
- <!-- service class must implements com.meidusa.amoeba.service.Service -->
- <!-- port -->
- <property name="port">6666</property> __ ** ##定義amoeba讀寫分離proxy對外代理的端口**__
- <!-- bind ipAddress -->
- <!--
- <property name="ipAddress">127.0.0.1</property>
- -->
- <property name="manager">${clientConnectioneManager}</property>
- <property name="connectionFactory">
- <property name="sendBufferSize">128</property>
- <property name="receiveBufferSize">64</property>
- </bean>
- </property>
- <property name="authenticator">
- <property name="user">dbproxy</property> __ ** ##定義proxy的管理帳號密碼,客戶端和程序只需要連接proxy的帳號密碼即可,相當於中間接封裝**__
- <property name="password">123456</property>
- <property name="filter">
- </bean>
- </property>
- </bean>
- </property>
- </service>
- <!-- server class must implements com.meidusa.amoeba.service.Service -->
- <!-- port -->
- <!-- default value: random number
- <property name="port">9066</property>
- -->
- <!-- bind ipAddress -->
- <property name="ipAddress">127.0.0.1</property>
- <property name="daemon">true</property>
- <property name="manager">${clientConnectioneManager}</property>
- <property name="connectionFactory">
- <runtime class="com.meidusa.amoeba.mysql.context.MysqlRuntimeContext">
- <!-- proxy server net IO Read thread size -->
- <property name="readThreadPoolSize">20</property>
- <!-- proxy server client process thread size -->
- <!-- per connection cache prepared statement size -->
- <property name="statementCacheSize">500</property>
- <!-- query timeout( default: 60 second , TimeUnit:second) -->
- <property name="queryTimeout">60</property>
- </runtime>
- </proxy>
- <!--
- Each ConnectionManager will start as thread
- manager responsible for the Connection IO read , Death Detection
- -->
- <connectionManagerList>
- <!--
- default value is avaliable Processors
- <property name="processors">5</property>
- -->
- </connectionManager>
- <!--
- default value is avaliable Processors
- <property name="processors">5</property>
- -->
- </connectionManager>
- </connectionManagerList>
- <!-- default using file loader -->
- <dbServerLoader class="com.meidusa.amoeba.context.DBServerConfigFileLoader">
- <property name="configFile">${amoeba.home}/conf/dbServers.xml</property>
- </dbServerLoader>
- <queryRouter class="com.meidusa.amoeba.mysql.parser.MysqlQueryRouter">
- <property name="ruleLoader">
- <bean class="com.meidusa.amoeba.route.TableRuleFileLoader">
- <property name="ruleFile">${amoeba.home}/conf/rule.xml</property>
- <property name="functionFile">${amoeba.home}/conf/ruleFunctionMap.xml</property>
- </bean>
- </property>
- <property name="sqlFunctionFile">${amoeba.home}/conf/functionMap.xml</property>
- <property name="LRUMapSize">1500</property>
- <property name="defaultPool">server1</property> __ ** ##定義默認的池,一些除了SELECT\UPDATE\INSERT\DELETE的語句都會在defaultPool執行。**__
- <property name="writePool">server1</property> __ ** ##定義寫的池**__
- <property name="readPool">server2</property> __ ** ##定義讀的池**__
- <property name="needParse">true</property>
- </queryRouter>
- </amoeba:configuration>
六、啟動Amoeba
- /usr/local/amoeba/bin/amoeba start &
- 開機自動啟動可加入到 /etc/rc.local內
- echo "/usr/local/amoeba/bin/amoeba start &" >> /etc/rc.local
七、日志排錯
- 日志文件在/usr/local/amoeba/log下
PS:amoeba雖然是Java寫的,看似效率不高,但功能異常強大,支持讀寫分離,表和庫級別的讀寫分離,數據庫水平分割,垂直分割,還有集群。是淘寶的得力作品。喜歡的童鞋可以嘗試下。mysql-proxy 只是輕量級的讀寫分離程序,雖然C寫的,但是驅動是需要lua的腳本跑,而且在高並發下經常掛掉。程序還忽略了一些字符設定,如果數據庫不是同一編碼還會出現亂碼,amoeba就不存在。就簡單介紹到這里吧。
使用Amoeba for mysql實現mysql讀寫分離
原址如下:
http://www.centos.bz/2012/05/amoeba-for-mysql/
Amoeba for MySQL致力於MySQL的分布式數據庫前端代理層,它主要在應用層訪問MySQL的時候充當query 路由功能,專注 分布式數據庫 proxy 開發。座落與Client、DB Server(s)之間。對客戶端透明。具有負載均衡、高可用性、Query過濾、讀寫分離、可路由相關的query到目標數據庫、可並發請求多台數據庫合並結果。 在Amoeba上面你能夠完成多數據源的高可用、負載均衡、數據切片的功能。目前在很多企業的生產線上面使用。
www.centos.bz這里使用Amoeba for mysql來實現mysql的讀寫分離,起到緩解主數據庫服務器的壓力,下面是實現這一方案的架構圖:
mysql主從復制配置
因為讀寫分離,所以一台負責mysql的寫操作,另一台負責mysql的讀操作,所以我們這里使用mysql的主從復制再合適不過了。關於這一配置,請移步:
http://www.centos.bz/2011/07/linux-mysql-replication-sync-configure/
java環境配置
Amoeba框架是基於Java SE1.5開發的,建議使用Java SE 1.5版本。目前Amoeba經驗證在JavaTM SE 1.5和Java SE 1.6能正常運行,(可能包括其他未經驗證的版本)。
Java SE 1.6下載地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk-6u32-downloads-1594644.html
我這里下載jdk-6u32-linux-i586-rpm.bin。
下載完成后執行sh jdk-6u32-linux-i586-rpm.bin開始安裝,將會安裝到/usr/java/jdk1.6.0_32目錄。
Amoeba的安裝
Amoeba下載地址:http://sourceforge.net/projects/amoeba/
下面是安裝步驟:
- cd /tmp
- mkdir /usr/local/amoeba
- wget http://softlayer.dl.sourceforge.net/project/amoeba/Amoeba%20for%20mysql/2.x/amoeba-mysql-binary-2.1.0-RC5.tar.gz
- tar xzf amoeba-mysql-binary-2.1.0-RC5.tar.gz -C /usr/local/amoeba
配置用戶環境變量
- vi ~/.bash_profile
設置為:
- PATH=$PATH:$HOME/bin:/usr/local/amoeba/bin
- JAVA_HOME=/usr/java/jdk1.6.0_32
- export JAVA_HOME
- export PATH
立即生效:
- source ~/.bash_profile
Amoeba for mysql配置
配置Amoeba for mysql的讀寫分離主要涉及兩個文件:
1、/usr/local/amoeba/conf/dbServers.xml
此文件定義由Amoeba代理的數據庫如何連接,比如最基礎的:主機IP、端口、Amoeba使用的用戶名和密碼等等。
2、/usr/local/amoeba/conf/amoeba.xml
此文件定義了Amoeba代理的相關配置。
dbServers.xml文件配置
abstractServer配置:
- <dbServer name="abstractServer" abstractive="true">
- <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
- <property name="manager">${defaultManager}</property>
- <property name="sendBufferSize">64</property>
- <property name="receiveBufferSize">128</property>
- <!-- mysql port -->
- <property name="port">3306</property>
- <!-- mysql schema -->
- <property name="schema">dbname</property>
- <!-- mysql user -->
- <property name="user">root</property>
- <!-- mysql password -->
- <property name="password">root</property>
- </factoryConfig>
- <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
- <property name="maxActive">500</property>
- <property name="maxIdle">500</property>
- <property name="minIdle">10</property>
- <property name="minEvictableIdleTimeMillis">600000</property>
- <property name="timeBetweenEvictionRunsMillis">600000</property>
- <property name="testOnBorrow">true</property>
- <property name="testWhileIdle">true</property>
- </poolConfig>
- </dbServer>
此部分定義真實mysql服務器的端口,數據庫名稱,mysql用戶及密碼。
主從數據庫定義:
- <dbServer name="Master" parent="abstractServer">
- <factoryConfig>
- <!-- mysql ip -->
- <property name="ipAddress">192.168.0.1</property>
- </factoryConfig>
- </dbServer>
- <dbServer name="Slave1" parent="abstractServer">
- <factoryConfig>
- <!-- mysql ip -->
- <property name="ipAddress">192.168.0.2</property>
- </factoryConfig>
- </dbServer>
- <dbServer name="Slave2" parent="abstractServer">
- <factoryConfig>
- <!-- mysql ip -->
- <property name="ipAddress">192.168.0.3</property>
- </factoryConfig>
- </dbServer>
- <dbServer name="virtualSlave" virtual="true">
- <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
- <!-- Load balancing strategy: 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
- <property name="loadbalance">1</property>
- <!-- Separated by commas,such as: server1,server2,server1 -->
- <property name="poolNames">Slave1,Slave2</property>
- </poolConfig>
- </dbServer>
此部分定義主服務器,從服務器,及從服務器連接池。這里只定義數據庫地址,它們的用戶及密碼就是上面的abstractServer里的設置。注意用來連接真實mysql服務器的用戶必須擁有遠程連接權限。
amoeba.xml配置
amoeba連接驗證配置:
- <property name="authenticator">
- <bean class="com.meidusa.amoeba.mysql.server.MysqlClientAuthenticator">
- <property name="user">root</property>
- <property name="password">root</property>
- <property name="filter">
- <bean class="com.meidusa.amoeba.server.IPAccessController">
- <property name="ipFile">${amoeba.home}/conf/access_list.conf</property>
- </bean>
- </property>
- </bean>
- </property>
這里定義連接amoeba時用來驗證的用戶及密碼。
讀寫分離配置:
- <property name="defaultPool">Master</property>
- <property name="writePool">Master</property>
- <property name="readPool">virtualSlave</property>
defaultPool:配置了默認的數據庫節點,一些除了SELECTUPDATEINSERTDELETE的語句都會在defaultPool執行。
writePool :配置了數據庫寫庫,通常配為Master,如這里就配置為之前定義的Master數據庫。
readPool :配置了數據庫讀庫,通常配為Slave或者Slave組成的數據庫池,如這里就配置之前的virtualSlave數據庫池。
amoeba啟動
啟動命令:
- amoeba start
此命令以前台的方式啟動,會輸出啟動時的信息,檢查沒有錯誤信息后,中斷,並后台運行:
- amoeba start &
FAQ
1、無法正常連接?
首先根據執行amoeba start輸出的信息排除配置文件沒有問題,之后確認mysql用戶是否有遠程連接的權限,然后檢查網站的數據庫配置文件是否設置正確。
2、如何配置網站數據庫連接文件?
默認的端口應該為8066,用戶及密碼在amoeba.xml里設置。
參考:http://docs.hexnova.com/amoeba/single-dbserver.html
http://docs.hexnova.com/amoeba/rw-splitting.html