阿里雲RDS與ECS自建庫搭建主從復制


前言

最近嘗試在阿里雲RDS與ECS自建庫之間搭建主從復制,主要是想用於備份數據,所以對於同步一致性要求不是很高.模擬了幾次,遇到的一些坑記錄在這里,使用的是基於GTID的主從服務,關於GTID: MySQL GTID是在傳統的mysql主從復制的基礎之上演化而來的產物,即通過UUID加上事務ID的方式來確保每一個事物的唯一性。這樣的操作方式使得我們不再需要關心所謂的log_file和log_Pos,只是簡單的告訴從庫,從哪個服務器上去找主庫就OK了。簡化了主從的搭建以及failover的過程,同時比傳統的復制更加安全可靠。由於GTID是連續沒有空洞的,因此主從庫出現數據沖突時,可以通過注入空事物的方式進行跳過

MySQL5.7殺手級新特性:GTID原理與實戰

具體過程如下:

1 准備工作,申請阿里雲RDS

a 登錄 RDS 控制台,選擇目標實例。
b 配置從實例讀取數據使用的只讀賬號和授權數據庫。
c 將從實例的 IP 地址加入主實例的 IP 白名單中 [同一地域 則可以內網IP] 
d 登錄主實例 [如果外部無法登錄 白名單添加0.0.0.0/0][或者提工單] e 查詢主實例的 server-id [show variables like '%server_id%';] # 記下這個id,不能與slave的相同

2 配置從實例 (slave)

需要先安裝mysql5.6以上
https://segmentfault.com/n/1330000014166676#articleHeader8
--$ systemctl stop mysqld
--$ vim /etc/my.cnf

[mysqld]
server-id=1629281463 # 從實例的id,不能與master的id相同 port=3306 log-bin-trust-function-creators=1 # 設置為1,MySQL不會對創建存儲函數實施限制 slave-skip-errors = 1032,1062,1007,1050 # datadir=/var/lib/mysql socket=/var/lib/mysql/mysql.sock log-bin=/var/lib/mysql/mysql-bin expire_logs_days=10 # 控制binlog日志文件保留時間 max_binlog_size=100M replicate-ignore-db=mysql # 不需要同步的庫 replicate-ignore-db=information_schema replicate-ignore-db=performance_schema #GTID gtid_mode=on enforce_gtid_consistency=on binlog_format=row # 設置日志格式為row log-slave-updates=1 # Disabling symbolic-links is recommended to prevent assorted security risks symbolic-links=0 # Recommended in standard MySQL setup sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES [mysqld_safe] log-error=/var/log/mysqld.log pid-file=/var/run/mysqld/mysqld.pid --$ systemctl start mysqld

3 查看是否開啟了binlog,及使用的日志格式

>>> show variables like '%binlog_format%';
1. Row 日志中會記錄成每一行數據被修改的形式,然后在 slave 端再對相同的數據進行修改。 2. Statement 每一條會修改數據的 SQL 都會記錄到 master 的 bin-log 中。slave 在復制的時候 SQL 進程會解析成和原來 master 端執行過的相同的 SQL 再次執行

4 將主實例數據全量同步到從實例 (最好下載RDS控制台的備份數據,不要mysqldump),詳見恢復雲數據庫MySQL的備份文件到自建數據庫

# GRANT ALL PRIVILEGES ON *.* TO 'test'@'%'IDENTIFIED BY 'passwd' WITH GRANT OPTION; # CREATE DATABASE sakila DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci; # mysqldump -uname -hmasterhost.mysql.rds.aliyuncs.com -p --databases exampledb > exampledb.sql # mysqldump -uname -p < exampledb.sql

5 登錄從實例(slave),設置同步選項

>>> stop slave # 注意!!! 當使用 MASTER_AUTO_POSITION 參數的時候,MASTER_LOG_FILE,MASTER_LOG_POS參數不能使用 >>> stop slave; >>> change master to \ master_host='yourhost', \ master_port=3306, \ master_user='xxx', \ master_password='yyy',\ master_auto_position = 1; >>> start slave

6 檢查同步結果

>>> show slave status\G; 查看系統返回信息中 Slave_IO_Running 和 Slave_SQL_Running 的狀態是否為 Yes

7 測試主從同步

在主庫上執行UPDATE INSERT等操作,然后在從庫上查看是否同步了過來.我測試了幾次,同步沒出現什么問題,可能是由於數據量比較小.

遇到的問題

ERROR 1776 (HY000): Parameters MASTER_LOG_FILE, MASTER_LOG_POS, RELAY_LOG_FILE and RELAY_LOG_POS cannot be set when MASTER_AUTO_POSITION is active. 當使用 MASTER_AUTO_POSITION 參數的時候,MASTER_LOG_FILE,MASTER_LOG_POS參數不能使用
Last_SQL_Errno: 1007 Last_SQL_Error: Error 'Can't create database 'abu'; database exists' on query. Default database: 解決方法:在從庫的/etc/my.cnf里添加如下代碼 [mysqld] slave-skip-errors = 1032,1062,1007,1050
使用change master to master_host = 'xxx', master_port = xxx, master_user = 'xxx', master_password='xxx', master_auto_position = 12866271; 時報錯: Last_IO_Errno: 1236 Last_IO_Error: Got fatal error 1236 from master when reading data from binary log: 'The slave is connecting using CHANGE MASTER TO MASTER_AUTO_POSITION = 1, but the master has purged binary logs containing GTIDs that the slave requires.' 解決: 這個應該是由於你在主庫上執行過purge binary logs,然后當從庫change master的時候,卻要執行那些事務。 你可以在主庫上先查找哪些gtid被purge了。 show global variables like 'gtid_purged'; 然后拿着這個value,去從庫上依次 stop slave; reset mater; set global gtid_purged = 'xxx'; # xxx是你主庫上查到的value。 start slave; 這樣能跳過執行被主庫已經purge的事務了。 

同步檢測腳本

為了知道主從的同步情況,自己寫了個腳本,查詢主從數據庫某些表的行數,以及數據大小,最近產生的數據比對。
#!/usr/bin/env python # -*- coding: utf-8 -*- # @Author : Lyon Walker # @Time : 18/08/11 9:54 import pymysql import contextlib import time from functools import wraps sql = 'SELECT COUNT(1) tbl_chargingorder from t1;' sql2 = 'SELECT COUNT(1) tbl_chargingrecord from t1;' sql3 = 'SELECT COUNT(1) tbl_purchasehistory from t3;' sql4 = "select concat(round((sum(DATA_LENGTH)+SUM(INDEX_LENGTH))/1024/1024/1024,2),'G') size from information_schema.tables where table_schema='dbname';" # 這里用於計算執行sql的時間 def fn_timer(function): @wraps(function) def function_timer(*args, **kwargs): t0 = time.time() result = function(*args, **kwargs) t1 = time.time() t = float('%.2f' % (t1-t0)) return t, result return function_timer class MysqlClient: def __init__(self, host, port, user, passwd, db): self.host = host self.port = port self.user = user self.passwd = passwd self.db = db @contextlib.contextmanager def mysql(self): conn = pymysql.connect(host=self.host, port=self.port, user=self.user, passwd=self.passwd, db=self.db) cursor = conn.cursor(cursor=pymysql.cursors.DictCursor) try: yield cursor finally: conn.commit() cursor.close() conn.close() @fn_timer def exec_sql(self, sql): with self.mysql() as cursor: cursor.execute(sql) res = cursor.fetchall() return res my_m = MysqlClient('10.9.2.100', 3306, 'root', 'xxx', 'dbname') row_m1 = my_m.exec_sql(sql) row2_m2 = my_m.exec_sql(sql2) row3_m3 = my_m.exec_sql(sql3) row4_m4 = my_m.exec_sql(sql4) my_s = MysqlClient('10.9.2.101', 3306, 'root', 'xxx', 'dbname') row_s1 = my_s.exec_sql(sql) row2_s2 = my_s.exec_sql(sql2) row3_s3 = my_s.exec_sql(sql3) row4_s4 = my_s.exec_sql(sql4) print(row_m1 + row_m2 + row_m3 + row_m4) print(row_s1 + row_s2 + row_s3 + row_s4) 


測試了一下,結果令人失望,行數不一致,數據大小也不一致,只是最近產生的數據是同步一致的,查看slave狀態也很正常,到這里經提醒看看是不是備份數據的時候出了岔子,去RDS控制台看了下,阿里雲是有備份的(采用的是物理備份),根據阿里雲提供的備份恢復文檔恢復雲數據庫MySQL的備份文件到自建數據庫

  • 下載阿里雲控制台備份的數據
  • 安裝Percona-XtraBackup

    cd /usr/local/src/ wget https://www.percona.com/downloads/XtraBackup/Percona-XtraBackup-2.4.12/source/tarball/percona-xtrabackup-2.4.12.tar.gz yum install cmake gcc gcc-c++ libaio libaio-devel automake autoconf bison libtool ncurses-devel libgcrypt-devel libev-devel libcurl-devel cmake -DBUILD_CONFIG=xtrabackup_release -DWITH_MAN_PAGES=OFF && make -j4
  • cmake報錯

    CMake Error at cmake/boost.cmake:81 (MESSAGE): You can download it with -DDOWNLOAD_BOOST
  • 下載boost 重新cmake

    mkdir -p /usr/local/boost cd /usr/local/boost wget http://www.sourceforge.net/projects/boost/files/boost/1.59.0/boost_1_59_0.tar.gz tar zxvf boost_1_59_0.tar.gz cd /usr/local/src/ cmake -DBUILD_CONFIG=xtrabackup_release -DWITH_MAN_PAGES=OFF -DDOWNLOAD_BOOST=1 -DWITH_BOOST=/usr/local/boost && make -j4 make install ln -s /usr/local/xtrabackup/bin/innobackupex /usr/bin/innobackupex
  • 刪除之前的庫以及一些其他的信息(/var/lib/mysql下),刪除之前的主從信息。
use mysql; drop table if exists innodb_index_stats;\ drop table if exists innodb_table_stats;\ drop table if exists slave_master_info;\ drop table if exists slave_relay_log_info;\ drop table if exists slave_worker_info;
  • 執行腳本導入

    ./rds_backup_extract.sh -f hins2950629_data_20180813031740.tar -C /var/lib/mysql innobackupex --defaults-file=/var/lib/mysql/backup-my.cnf --apply-log /var/lib/mysql vi /home/mysql/data/backup-my.cnf 注釋掉 保存 #innodb_fast_checksum #innodb_page_size #innodb_log_block_size chown -R mysql:mysql /home/mysql/data systemctl restart mysql mysql -uroot # 登錄 delete from mysql.db where user<>’root’ and char_length(user)>0;delete from mysql.tables_priv where user<>’root’ and char_length(user)>0;flush privileges; # 新建用戶前,執行這條命令 # 設置root密碼 use mysql; UPDATE user SET Password = PASSWORD('newpass') WHERE user = 'root'; GRANT ALL PRIVILEGES ON *.* TO 'root'@'%'IDENTIFIED BY 'newpass' WITH GRANT OPTION; FLUSH PRIVILEGES;
  • 重新設置主從
  • 過程中還有很多其他小錯誤,這里就不一一贅述了

參考文章

http://www.cnblogs.com/kevingrace/p/6256603.html


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM