redis原理及使用


個人總結:

redis是一個key-value存儲系統.和Memcached類似,它支持存儲的value類型相對更多,包括string(字符串)、list(鏈表)、set(集合)、zset(sorted set --有序集合)和hashs(哈希類型)
這些數據類型都支持push/pop、add/remove及取交集並集和差集及更豐富的操作,而且這些操作都是原子性的.
在此基礎上,redis支持各種不同方式的排序.與memcached一樣,為了保證效率,數據都是緩存在內存中.
區別的是redis會周期性的把更新的數據寫入磁盤或者把修改操作寫入追加的記錄文件,並且在此基礎上實現了master-slave(主從)同步.

Redis的優點:

性能極高 – Redis能支持超過 100K+ 每秒的讀寫頻率。
豐富的數據類型 – Redis支持二進制案例的 Strings, Lists, Hashes, Sets 及 Ordered Sets 數據類型操作。
原子 – Redis的所有操作都是原子性的,同時Redis還支持對幾個操作全並后的原子性執行。
豐富的特性 – Redis還支持 publish/subscribe, 通知, key 過期等等特性。

下面是官方的bench-mark數據:
測試完成了50個並發執行100000個請求。
設置和獲取的值是一個256字節字符串。
Linux box是運行Linux 2.6,這是X3320 Xeon 2.5 ghz。
文本執行使用loopback接口(127.0.0.1)。
結果:寫的速度是110000次/s,讀的速度是81000次/s 。

===================redis使用說明:
1.cmd中啟動
D:\Redis>redis-server.exe redis.conf
2.執行命令:
D:\Redis>redis-cli.exe -h 172.16.147.121 -p 6379
3.設置數值:
redis 172.16.147.121:6379> set city Shanghai
4.獲取數值:
redis 172.16.147.121:6379> get city
====================
using ServiceStack.Redis;
using System;
using System.Collections.Generic;
using System.ComponentModel;
using System.Data;
using System.Drawing;
using System.Linq;
using System.Text;
using System.Windows.Forms;

namespace redis
{
    public partial class Form1 : Form
    {
        RedisClient redisClient = null;
        public Form1()
        {
            InitializeComponent();
        }

        private void button1_Click(object sender, EventArgs e)
        {
            redisClient = new RedisClient("localhost", 6379);//redis服務IP和端口
        }

        private void button2_Click(object sender, EventArgs e)
        {
            redisClient.Add<string>("name", "郭澤峰");
        }

        private void button3_Click(object sender, EventArgs e)
        {
            MessageBox.Show(redisClient.Get<string>("name"));
        }
    }
}

==========jedis:
  //連接redis服務器,192.168.0.100:6379
 19         jedis = new Jedis("192.168.0.100", 6379);
 20         //權限認證
 21         jedis.auth("admin");  
  jedis.set("name","xinxin");//向key-->name中放入了value-->xinxin  
 31         System.out.println(jedis.get("name"));//執行結果:xinxin  
===主從監視器:sentinels

  JedisPoolConfig poolConfig = new JedisPoolConfig();
12         String masterName = "mymaster";
13         Set<String> sentinels = new HashSet<String>();
14         sentinels.add("192.168.1.97:26379");
15         sentinels.add("192.168.1.96:26379");
16         JedisSentinelPool jedisSentinelPool = new JedisSentinelPool(masterName, sentinels, poolConfig);
17         HostAndPort currentHostMaster = jedisSentinelPool.getCurrentHostMaster();
18         System.out.println(currentHostMaster.getHost()+"--"+currentHostMaster.getPort());//獲取主節點的信息
19         Jedis resource = jedisSentinelPool.getResource();
20         String value = resource.get("a");
21         System.out.println(value);//獲得鍵a對應的value值
22         resource.close();
23     }

================
JedisPoolConfig poolConfig = new JedisPoolConfig();
12         Set<HostAndPort> nodes = new HashSet<HostAndPort>();
13         HostAndPort hostAndPort = new HostAndPort("192.168.1.99", 7000);
14         HostAndPort hostAndPort1 = new HostAndPort("192.168.1.99", 7001);
15         HostAndPort hostAndPort2 = new HostAndPort("192.168.1.99", 7002);
16         HostAndPort hostAndPort3 = new HostAndPort("192.168.1.99", 7003);
17         HostAndPort hostAndPort4 = new HostAndPort("192.168.1.99", 7004);
18         HostAndPort hostAndPort5 = new HostAndPort("192.168.1.99", 7005);
19         nodes.add(hostAndPort);
20         nodes.add(hostAndPort1);
21         nodes.add(hostAndPort2);
22         nodes.add(hostAndPort3);
23         nodes.add(hostAndPort4);
24         nodes.add(hostAndPort5);
25         JedisCluster jedisCluster = new JedisCluster(nodes, poolConfig);//JedisCluster中默認分裝好了連接池.
26         //redis內部會創建連接池,從連接池中獲取連接使用,然后再把連接返回給連接池
27         String string = jedisCluster.get("a");
28         System.out.println(string);            
=======================================

  


reids存儲類型:string list hash set sortedset.
高速緩存數據庫。
緩存,數據緩存,頁面緩存。

====redis優:

1.支持多數據類型,
2.支持主從模式
3.支持持久化
4.單個value限制是1GB,memcached為1M數據。

=================

redis可以做存儲。

redis-server ./redis.conf 打開redis。
./redis-cli -h 172.17.5.20 -p 6379
10: 讓redis以后台進程的形式運行
編輯conf配置文件,修改如下內容;

daemonize yes

==命令:
set key value;
del key1 key2 ... Keyn
rename key newkey(newkey已存在則會被覆蓋)
renamenx key newkey (不存在才改變)返回0 失敗

keys *

keys s* 模糊查詢;
keys sit[ey] e后者
有3個通配符 *, ? ,[]
*: 通配任意多個字符
?: 通配單個字符
[]: 通配括號內的某1個字符

redis默認創建16個數據庫:(0-15)
---databases 16 默認16個數據庫

select 1 選擇1號數據庫。
select 0 選擇2號數據庫
---移動一個key到2號數據庫。
move cc 2
----默認有效期:永久,但也可以設置有效期。

--
randomkey 返回隨機key
exists key
判斷key是否存在,返回1/0
type key
返回key存儲的值的類型
有string,link,set,order set, hash

----查詢有效期:
ttl key (-1:永久)(-2:不存在)(生命周期,以秒為單位)

expire key 10 設置10,10秒后消失。

---設置毫秒為生命周期:
pexpire key 毫秒數, 設置生命周期
pttl key, 以毫秒返回生命周期
---
persist key
作用: 把指定key置為永久有效

==============字符串操作相關:

set key val 返回nil 失敗。

set key value [ex 秒數] / [px 毫秒數] [nx] /[xx]

如: set a 1 ex 10 , 10秒有效
Set a 1 px 9000 , 9秒有效
注: 如果ex,px同時寫,以后面的有效期為准
如 set a 1 ex 100 px 9000, 實際有效期是9000毫秒

nx: 表示key不存在時,執行操作
xx: 表示key存在時,執行操作

-----
mset multi set , 一次性設置多個鍵值:

例: mset key1 v1 key2 v2 ....
mget key1 key2 ..keyn
作用:獲取多個key的值

---
flushdb 清空

----偏移:s
setrange key offset value

比如 hellow setrange key offset 2 xx hexxow 就是從索引2開始替換,把xx填充並替換原來的.
-----
append key value
作用: 把value追加到key的原值上
--
'chinese'
getrange title 0 3 返回chin
----
getset key newvalue
作用: 獲取並返回舊值,設置新值
--
incr key
作用: 指定的key的值加1,並返回加1后的值

---秒殺活動,比如1000部手機,1000個並發后,利用1000 decre ,之后用戶獲取資格,然后通過隊列去下單。
---一次性增長number.
incrby key number
decrby key number
---增長浮點數
incrbyfloat key floatnumber
incrbyfloat age 3.5
---操作位(可以將大寫變小寫,差32位)
setbit key offset value
getbit key offset

=================link相關:鏈表:(l:頭,r:尾)
lpush key value value2 value3, 注意:如果是lpush,順序是倒序的。
作用: 把值插入到鏈接頭部

rpop key
作用: 返回並刪除鏈表尾元素

rpush,lpop: 不解釋

lrange key start stop
作用: 返回鏈表中[start ,stop]中的元素
規律: 左數從0開始,右數從-1開始
===
lrem key count value
lrem key count value
作用: 從key鏈表中刪除 value值
注: 刪除count的絕對值個value后結束
Count>0 從表頭刪除
Count<0 從表尾刪除

lrem key -2 a 從尾部刪除兩個a

-----------

ltrim key start stop
作用: 剪切key對應的鏈接,切[start,stop]一段,並把該段重新賦給key
lindex key index
作用: 返回index索引上的值,
如 lindex key 2
llen key
作用:計算鏈接表的元素個數
linsert key after|before search value
作用: 在key鏈表中尋找’search’,並在search值之前|之后,.插入value
注: 一旦找到一個search后,命令就結束了,因此不會插入多個value
比如:12345
linsert key before 3 0
120345

找不到返回-1;
--若果有多個,那只會插入第一個,就結束了。

----(source和dest是兩個link),這個操作時原子性的。******************

rpoplpush source dest 返回移動的值。
作用: 把source的尾部拿出,放在dest的頭部,
---
這個很有用,可以用做安全隊列:
比如有兩個鏈表,消費鏈表link 和備份鏈表bak
1.我們把消費訂單存入link,
2.進行業務操作的時候,利用rpoplpush,拿到處理的訂單編號進行處理,一旦成功,我們就把bak中刪除(lpop bak),如果失敗,我們繼續從bak取出進行處理(rpop bak)--逐個處理錯誤item。

-----
brpop ,blpop key timeout
作用:等待彈出key的尾/頭元素,
Timeout為等待超時時間
如果timeout為0,則一直等待

場景: 長輪詢Ajax,在線聊天時,能夠用到

====如果統計1億用戶周活躍數,比如一周登錄4次的用戶,我們就可以利用redis 位操作來實現:
用戶登錄1,未登錄0.userid得到位的索引,
setbit mon=1000000000000001
setbit mon 3 1 將3用戶設置為登錄
.
.
.
每周都會產生一個1億的位,
最后統計:
bittop add mon fe thr 累加得到一個數字,拿這個數字判斷第幾個位就可以得到登錄次數;

------set:

集合 set 相關命令

集合的性質: 唯一性,無序性,確定性

注: 在string和link的命令中,可以通過range 來訪問string中的某幾個字符或某幾個元素
但,因為集合的無序性,無法通過下標或范圍來訪問部分元素.
因此想看元素,要么隨機先一個,要么全選.
smembers key
作用: 返回集中中所有的元素
srem value1 value2
作用: 刪除集合中集為 value1 value2的元素
返回值: 忽略不存在的元素后,真正刪除掉的元素的個數
srandmember key (不刪除)
作用: 返回集合key中,隨機的1個元素.
spop key
作用: 返回並刪除集合中key中1個隨機元素
隨機--體現了無序性

sismember key value
作用: 判斷value是否在key集合中
是返回1,否返回0
scard key
作用: 返回集合中元素的個數

move source dest value
作用:把source中的value刪除,並添加到dest集合中
sinter key1 key2 key3
作用: 求出key1 key2 key3 三個集合中的交集,並返回
sinterstore dest key1 key2 key3
作用: 求出key1 key2 key3 三個集合中的交集,並賦給dest

suion key1 key2.. Keyn
作用: 求出key1 key2 keyn的並集,並返回

sdiff key1 key2 key3
作用: 求出key1與key2 key3的差集
即key1-key2-key3

==================有序set:添加權重score來排序:
order set 有序集合
zadd key score1 value1 score2 value2 ..
添加元素

redis 127.0.0.1:6379> zadd stu 18 lily 19 hmm 20 lilei 21 lilei
(integer) 3

-------------------------


---排名start到排名stop(數字位第幾名,區分)
ZRANGE key start stop [WITHSCORES]
把集合排序后,返回名次[start,stop]的元素
默認是升續排列

--
zrangebyscore key min max [withscores] limit offset N
作用: 集合(升續)排序后,取score在[min,max]內的元素,
並跳過 offset個, 取出N個
zrangebyscore stu 3 12 limit 1 2 withscores
---withscores 把score也當成item打印出來:

---查詢名次:(升序)
rank key member
查詢member的排名(升續 0名開始)
---降序查詢名次:
zrevrank key memeber
--------------
zrem key value1 value2 ..
作用: 刪除集合中的元素

zremrangebyscore key min max
作用: 按照socre來刪除元素,刪除score在[min,max]之間的
redis 127.0.0.1:6379> zremrangebyscore stu 4 10
zremrangebyrank key start end
作用: 按排名刪除元素,刪除名次在[start,end]之間的
redis 127.0.0.1:6379> zremrangebyrank stu 0 1
----
zremrangebyrank key start end
作用: 按排名刪除元素,刪除名次在[start,end]之間的
redis 127.0.0.1:6379> zremrangebyrank stu 0 1
---
zcard key
返回元素個數

zcount key min max
返回[min,max] 區間內元素的數量

---------------切記[min,max],中括號也包括min和max的。

------numkeys:待求交集的數量,比如求key1和key2的交集則numkeys為2;
zinterstore destination numkeys key1 [key2 ...]
[WEIGHTS weight [weight ...]]
[AGGREGATE SUM|MIN|MAX]
求key1,key2的交集,key1,key2的權重分別是 weight1,weight2
聚合方法用: sum |min|max
聚合的結果,保存在dest集合內
注意: weights ,aggregate如何理解?
答: 如果有交集, 交集元素又有socre,score怎么處理?
Aggregate sum->score相加 , min 求最小score, max 最大score

另: 可以通過weigth設置不同key的權重, 交集時,socre * weights

-----------------------------Hash 哈希數據類型相關命令
hset key field value
作用: 把key中 filed域的值設為value
注:如果沒有field域,直接添加,如果有,則覆蓋原field域的值

----多個:

hmset key field1 value1 [field2 value2 field3 value3 ......fieldn valuen]
hmget key field1 field2 fieldN
作用: 返回key中field1 field2 fieldN域的值
hgetall key
作用:返回key中,所有域與其值
hdel key field
作用: 刪除key中 field域
hlen key
作用: 返回key中元素的數量
hexists key field
作用: 判斷key中有沒有field域

------讓值增加小數點。
hinrby key field value
作用: 是把key中的field域的值增長整型值value
hinrby float key field value
作用: 是把key中的field域的值增長浮點值value
hkeys key
作用: 返回key中所有的field
kvals key
作用: 返回key中所有的value

====
Redis 中的事務

Redis支持簡單的事務

Redis與 mysql事務的對比

Mysql Redis
開啟 start transaction muitl
語句 普通sql 普通命令
失敗 rollback 回滾 discard 取消
成功 commit exec

注: rollback與discard 的區別
如果已經成功執行了2條語句, 第3條語句出錯.
Rollback后,前2條的語句影響消失.
Discard只是結束本次事務,前2條語句造成的影響仍然還在
====原理:
muitl,s原理先放到queued隊列中,exec之后再執行。
放入隊列中時,只是檢查語法的正確性,並沒有檢查類型啊(不如在數字上累加字母),
Exec之后,會執行正確的語句,並跳過有不適當的語句.根本不會回滾。
=====

注:
在mutil后面的語句中, 語句出錯可能有2種情況
1: 語法就有問題,
這種,exec時,報錯, 所有語句得不到執行

2: 語法本身沒錯,但適用對象有問題. 比如 zadd 操作list對象
Exec之后,會執行正確的語句,並跳過有不適當的語句.

(如果zadd操作list這種事怎么避免? 這一點,由程序員負責)


思考:
我正在買票
Ticket -1 , money -100
而票只有1張, 如果在我multi之后,和exec之前, 票被別人買了---即ticket變成0了.
我該如何觀察這種情景,並不再提交

悲觀的想法:
世界充滿危險,肯定有人和我搶, 給 ticket上鎖, 只有我能操作. [悲觀鎖]

樂觀的想法:
沒有那么人和我搶,因此,我只需要注意,
--有沒有人更改ticket的值就可以了 [樂觀鎖]

Redis的事務中,啟用的是樂觀鎖,只負責監測key沒有被改動.
具體的命令---- watch命令
例:
redis 127.0.0.1:6379> watch ticket
OK
redis 127.0.0.1:6379> multi
OK
redis 127.0.0.1:6379> decr ticket
QUEUED
redis 127.0.0.1:6379> decrby money 100
QUEUED
redis 127.0.0.1:6379> exec
(nil) // 返回nil,說明監視的ticket已經改變了,事務就取消了.
redis 127.0.0.1:6379> get ticket
"0"
redis 127.0.0.1:6379> get money
"200"

watch 可以監視多個key,只要有一個變化,就取消事務
watch key1 key2 ... keyN
作用:監聽key1 key2..keyN有沒有變化,如果有變, 則事務取消

unwatch
作用: 取消所有watch監聽

=======================
使用辦法:
訂閱端: Subscribe 頻道名稱
發布端: publish 頻道名稱 發布內容
客戶端例子:
redis 127.0.0.1:6379> subscribe news
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "news"
3) (integer) 1
1) "message"
2) "news"
3) "good good study"
1) "message"
2) "news"
3) "day day up"
服務端例子:
redis 127.0.0.1:6379> publish news 'good good study'
(integer) 1
redis 127.0.0.1:6379> publish news 'day day up'
(integer) 1

=========

Redis持久化配置

Redis的持久化有2種方式 1快照(rdb) 2是日志

Rdb快照的配置選項:(rdbdump):優勢,因為是快照,所以恢復速度相當快。
(原理:每隔n分鍾或N次寫入后從內存dump數據形成rdb文件壓縮,放至到目錄上。)


save 900 1 // 900內,有1條寫入,則產生快照
save 300 1000 // 如果300秒內有1000次寫入,則產生快照
save 60 10000 // 如果60秒內有10000次寫入,則產生快照

(這3個選項都屏蔽,則rdb禁用)
---時間和更改頻率來形成梯形的dump方案。

新版本由新的進程導出版本.


stop-writes-on-bgsave-error yes // 后台備份進程出錯時,主進程停不停止寫入? (rdb的導入進程出錯了,redis停止寫入)

rdbcompression yes // 導出的rdb文件是否壓縮

Rdbchecksum yes // 導入rbd恢復時數據時,要不要檢驗rdb的完整性:

dbfilename dump.rdb //導出來的rdb文件名

dir ./ //rdb的放置路徑

-------保存條件:1分鍾,5分鍾,15分鍾才保存,所以不在里面做的修改,斷電等
故障都會丟失。

-------rdb的缺點,時間間隔內容易造成數據丟失。


---為了更精准,新版本增加了aof日志持久化。如下:是(append)


Aof 的配置 主要是 only append file.

 

--rdb原理,rdb導出進程,根據配置導出rdb的條件設置,定期的導出rdb快照,容易丟失,但恢復快照比較快
--aof原理,每執行一個命令,aof進程都會將命令記錄到txt文檔中。
寫txt會嚴重拖慢redis。

appendonly no # 是否打開 aof日志功能(yes:打開)

appendfsync always # 每1個命令,都立即同步到aof. 安全,速度慢
appendfsync everysec # 折衷方案,每秒寫1次-----最佳方案***************8
appendfsync no # 寫入工作交給操作系統,由操作系統判斷緩沖區大小,統一寫入到aof. 同步頻率低,速度快,

no-appendfsync-on-rewrite yes: # 正在導出rdb快照的過程中,要不要停止同步aof
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增長率100%時,重寫
auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫
===
注: 在dump rdb過程中,aof如果停止同步,會不會丟失?
答: 不會,所有的操作緩存在內存的隊列里, dump完成后,統一操作.
注: aof重寫是指什么?

答: aof重寫是指把內存中的數據,逆化成命令,寫入到.aof日志里.
以解決 aof日志過大的問題.(因為對同一key value操作的步驟比較多,日志比較多,但內存中就有一個最終的狀態,所以重寫成簡單一次性命令
比如最終set key value.降低文件的大小。

auto-aof-rewrite-percentage 100 #aof文件大小比起上次重寫時的大小,增長率100%時,重寫
auto-aof-rewrite-min-size 64mb #aof文件,至少超過64M時,重寫


問: 如果rdb文件,和aof文件都存在,優先用誰來恢復數據?
答: aof
問: 2種是否可以同時用?
答: 可以,而且推薦這么做
問: 恢復時rdb和aof哪個恢復的快
答: rdb快,因為其是數據的內存映射,直接載入到內存,而aof是命令,需要逐條執行

----redis兩種持久化同時配置,最終,可能會丟失1s的數據。


====================redis集群:
集群優點:
1.主從備份,防止主機宕機。
2.讀寫分離,分擔master的任務。
3.任務分離,分擔工作與計算。
----
方案:
1.master下面有兩個孩子,兩個孩子直接指向master(樹).
2.線性,第一個孩子指向master,第二個孩子指向第一個孩子.

原理:
主從通信:slave啟動之后鏈接master,slave發出同步命令,save拿到dump出的rdb
快照,之后再拿緩沖aof隊列中的日志數據進行數據填充。

---master配置:
1.關閉rdb快照(備份工作交給slave)
2.可以開啟aof

slave配置:
1.聲明slave-of (slave-of localhsot 6379)
2.如果master有密碼,slave也要有密碼
3.打開rdb快照
4.配置是否只讀[salve-read-only]

---主;
passwordrequire 密碼
--slave
masterauth 密碼

=============主從缺點:
每次slave斷開后,無論是主動斷開還是網絡故障,再鏈接master,
都要master全部dump導出rdb再aof.
所以,啟動slave要一個一個啟動,且有時間間隔。要不然
master主IO劇增。

============
redis 服務器端命令
redis 127.0.0.1:6380> time ,顯示服務器時間 , 時間戳(秒), 微秒數
1) "1375270361"
2) "504511"

redis 127.0.0.1:6380> dbsize // 當前數據庫的key的數量 當前庫,並不是當前服務器
(integer) 2
redis 127.0.0.1:6380> select 2 //選擇庫:
OK
redis 127.0.0.1:6380[2]> dbsize
(integer) 0
redis 127.0.0.1:6380[2]>


BGREWRITEAOF 后台進程重寫AOF
BGSAVE 后台保存rdb快照—后台單起一個進程。
SAVE 保存rdb快照----當前進程,需要等待。
LASTSAVE 上次保存時間

Slaveof master-Host port , 把當前實例設為master的slave

Flushall 清空所有庫所有鍵
Flushdb 清空當前庫所有鍵---n號數據庫
Showdown [save/nosave]

注: 如果不小心運行了flushall, 立即 shutdown nosave ,關閉服務器(shutdown會重寫aof,所以加上nosave)
然后 手工編輯aof文件, 去掉文件中的 “flushall ”相關行, 然后開啟服務器,就可以導入回原來數據.

如果,flushall之后,系統恰好bgrewriteaof了,那么aof就清空了,數據丟失.

Slowlog 顯示慢查詢
注:多慢才叫慢?
答: 由slowlog-log-slower-than 10000 ,來指定,(單位是微秒)

服務器儲存多少條慢查詢的記錄?
答: 由 slowlog-max-len 128 ,來做限制

Info [Replication/CPU/Memory..]
查看redis服務器的信息

Config get 配置項
Config set 配置項 值 (特殊的選項,不允許用此命令設置,如slave-of, 需要用單獨的slaveof命令來設置)

Redis運維時需要注意的參數
1: 內存
# Memory
used_memory:859192 數據結構的空間
used_memory_rss:7634944 實占空間
mem_fragmentation_ratio:8.89 前2者的比例,1.N為佳,如果此值過大,說明redis的內存的碎片化嚴重,可以導出再導入一次.
2: 主從復制
# Replication
role:slave
master_host:192.168.1.128
master_port:6379
master_link_status:up

3:持久化
# Persistence
rdb_changes_since_last_save:0
rdb_last_save_time:1375224063

4: fork耗時
#Status
latest_fork_usec:936 上次導出rdb快照,持久化花費微秒
注意: 如果某實例有10G內容,導出需要2分鍾,
每分鍾寫入10000次,導致不斷的rdb導出,磁盤始處於高IO狀態.


5: 慢日志
config get/set slowlog-log-slower-than
CONFIG get/SET slowlog-max-len
slowlog get N 獲取慢日志


運行時更改master-slave

修改一台slave(設為A)為new master
1) 命令該服務不做其他redis服務的slave
命令: slaveof no one
2) 修改其readonly為yes
命令:config set slave-read-only no
config get slave-read-only

其他的slave再指向new master A
1) 命令該服務為new master A的slave
命令格式 slaveof IP port

====

quit //關閉客戶端.

==redis復制

save一下:

rdb文件復制,后配置redis.conf文件 rdb文件路徑指向,重啟就可以了.
注意:復制的時候,一定保證reb文件不被占用,停掉redis.

-------------copy bin下面sentinel.conf.

sentinel主要是監控主從redis是否運行正常,不正常切換主從.


sentinel監控主從原理:監控主redis,如果不回應出現問題,就會將slave設為master.
其他slave指向它。

Sentinel不斷與master通信,獲取master的slave信息.
監聽master與slave的狀態
如果某slave失效,直接通知master去除該slave.

如果master失效,,是按照slave優先級(可配置), 選取1個slave做 new master
,把其他slave--> new master

疑問: sentinel與master通信,如果某次因為master IO操作頻繁,導致超時,
此時,認為master失效,很武斷.
解決: sentnel允許多個實例看守1個master, 當N台(N可設置)sentinel都認為master失效,才正式失效.

Sentinel選項配置
port 26379 # 端口
sentinel monitor mymaster 127.0.0.1 6379 2 ,
給主機起的名字(不重即可),
當2個sentinel實例都認為master失效時,正式失效

sentinel down-after-milliseconds mymaster 30000 多少毫秒后連接不到master認為斷開
sentinel can-failover mymaster yes #是否允許sentinel修改slave->master. 如為no,則只能監控,無權修改./
sentinel parallel-syncs mymaster 1 , 一次性修改幾個slave指向新的new master.(一次性都指向,會
造成masterd umprdb和aof日志文件io讀寫,所以一台一台改)
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh ,# 在重新配置new master,new slave過程,可以觸發的腳本

啟動:./redis-server ./sentinel.conf --sentinel

==========
Redis key 設計技巧

1: 把表名轉換為key前綴 如, tag:
2: 第2段放置用於區分區key的字段--對應mysql中的主鍵的列名,如userid
3: 第3段放置主鍵值,如2,3,4...., a , b ,c
4: 第4段,寫要存儲的列名

用戶表 user , 轉換為key-value存儲
userid username passworde email
9 Lisi 1111111 lisi@163.com

set user:userid:9:username lisi
set user:userid:9:password 111111
set user:userid:9:email lisi@163.com

keys user:userid:9*

2 注意:
在關系型數據中,除主鍵外,還有可能其他列也步驟查詢,
如上表中, username 也是極頻繁查詢的,往往這種列也是加了索引的.

轉換到k-v數據中,則也要相應的生成一條按照該列為主的key-value
Set user:username:lisi:uid 9

這樣,我們可以根據username:lisi:uid ,查出userid=9,
再查user:9:password/email ...

完成了根據用戶名來查詢用戶信息

====================新版集群:


=======redis集群:設置配置文件:
daemonize yes # redis默認不是后台啟動,這里修改成后台啟動
cluster-enabled yes # 允許redis支持集群模式
cluster-config-file nodes.conf # 節點配置文件
cluster-node-timeout 15000 # 節點超時毫秒
appendonly yes
注意:6個節點下的redis.conf都需要修改,可以修改一個之后拷貝過去。
然后6個節點執行
make
make install
啟動實例
在6個節點分別執行redis-server redis.conf,在6個節點上啟動6個redis的實例
搭建redis集群(在其中一個節點操作就可以了)
依賴於ruby環境,首先安裝ruby (yum install ruby)
sudo apt-get install ruby
sudo apt-get install rubygem


---下載不下來可以用如下L
tar xvzf rubygems-1.3.4.tgz
cd rubygems-1.3.4
sudo ruby setup.rb 即可

接下去需要安裝ruby的redis api,gem install redis,這個地方試過各種方法(切換為taobao的鏡像源)都不可以,所以我們這邊去官網下載一個,然后手動安裝。
wget https://rubygems.global.ssl.fastly.net/gems/redis-3.2.2.gem

sudo gem install -l ./redis-3.2.2.gem

一定要安裝 redis-3.2.2.gem,千萬別忘了gzf;

--如果集群設置密碼,那么這里面的也要設置密碼

 

接下去啟動集群
cd src
./redis-trib.rb create --replicas 1 xxx.xxx.xx.140:6379 xxx.xxx.xx.141:6379 xxx.xxx.xx.143:6379 xxx.xxx.xx.145:6379 xxx.xxx.xx.147:6379 xxx.xxx.xx.148:6379
注意ip修改成自己的~~
--replicas 1 表示我們希望為集群中的每個主節點創建一個從節點,由於sedis的集群最少需要3個主節點,如果我們每個主節點需要一個從節點,那么最少需要6台機器(或者說6個實例)。
145、147、148這3個將成為主節點,140、141、143將依次稱為主節點的從節點,我們看命令執行之后的結果:

---
ruby redis-trib.rb create 127.0.0.1:6379 127.0.0.1:6380 127.0.0.1:6381

----reids設置密碼,后masterauth也要設置相同密碼;
requirepass和masterauth都需要設置
--修改這里的密碼:
/usr/local/share/gems/gems/redis-3.2.2/lib/redis

-------測試集群:
./redis-cli -c -p 6379
cluster info
cluster nodes
-------密碼測試集群:
./redis-cli -c -p 6379 -a gzf
========
redis集群主庫之間是唯一的key,會根據key跳轉到不同的master上;


##############sysctl文件###############
[root@redis ~]# echo "vm.overcommit_memory=1" >> /etc/sysctl.confs
[root@redis ~]# sysctl -p
#############kerbel####################
[root@redis ~]# echo never > /sys/kernel/mm/transparent_hugepage/enabled

第一個警告兩個方式解決(overcommit_memory)
1. echo "vm.overcommit_memory=1" > /etc/sysctl.conf 或 vi /etcsysctl.conf , 然后reboot重啟機器
2. echo 1 > /proc/sys/vm/overcommit_memory 不需要啟機器就生


第二個警告解決
1. echo 511 > /proc/sys/net/core/somaxconn

====redis開機啟動:

/root/tools/java/redis-3.0.5/utils/redis_init_script

#大致瀏覽下該啟動腳本,發現redis習慣性用監聽的端口名作為配置文件等命名,我們后面也遵循這個約定。
#redis服務器監聽的端口
REDISPORT=6379
#服務端所處位置,在make install后默認存放與`/usr/local/bin/redis-server`,如果未make install則需要修改該路徑,下同。
EXEC=/usr/local/bin/redis-server
#客戶端位置
CLIEXEC=/usr/local/bin/redis-cli
#Redis的PID文件位置
PIDFILE=/var/run/redis_${REDISPORT}.pid
#配置文件位置,需要修改

復制到/
=================
#修改daemonize為yes,即默認以后台程序方式運行(還記得前面手動使用&號強制后台運行嗎)。
daemonize no
#可修改默認監聽端口
port 6379
#修改生成默認日志文件位置
logfile "/home/futeng/logs/redis.log"
#配置持久化文件存放位置
dir /home/futeng/data/redisData
啟動時指定配置文件
redis-server ./redis.conf
#如果更改了端口,使用`redis-cli`客戶端連接時,也需要指定端口,例如:
redis-cli -p 6380
其他啟停同 直接啟動 方式。配置文件是非常重要的配置工具,隨着使用的逐漸深入將顯得尤為重要,推薦在一開始就使用配置文件。

chkconfig --add redis 不支持添加如下:

#!/bin/sh
# chkconfig: 2345 90 10
# description: Redis is a persistent key-value database

==========

Redis 官方提供了 redis-trib.rb 這個工具,就在解壓目錄的 src 目錄中,第三步中已將它復制到 /usr/local/bin 目錄中,可以直接在命令行中使用了。使用下面這個命令即可完成安裝。

redis-trib.rb create --replicas 1 192.168.31.245:7000 192.168.31.245:7001 192.168.31.245:7002 192.168.31.210:7003 192.168.31.210:7004 192.168.31.210:7005
其中,前三個 ip:port 為第一台機器的節點,剩下三個為第二台機器。

等等,出錯了。這個工具是用 ruby 實現的,所以需要安裝 ruby。安裝命令如下:

yum -y install ruby ruby-devel rubygems rpm-build
gem install redis


簡單說一下原理

redis cluster在設計的時候,就考慮到了去中心化,去中間件,也就是說,集群中的每個節點都是平等的關系,都是對等的,每個節點都保存各自的數據和整個集群的狀態。
每個節點都和其他所有節點連接,而且這些連接保持活躍,這樣就保證了我們只需要連接集群中的任意一個節點,就可以獲取到其他節點的數據。

Redis 集群沒有並使用傳統的一致性哈希來分配數據,而是采用另外一種叫做哈希槽 (hash slot)的方式來分配的。
redis cluster 默認分配了 16384 個slot,當我們set一個key 時,會用CRC16算法來取模得到所屬的slot,然后將這個key 分到哈希槽區間的節點上,
具體算法就是:CRC16(key) % 16384。所以我們在測試的時候看到set 和 get 的時候,直接跳轉到了7000端口的節點。

Redis 集群會把數據存在一個 master 節點,然后在這個 master 和其對應的salve 之間進行數據同步。當讀取數據時,也根據一致性哈希算法到對應的 master 節點獲取數據。
只有當一個master 掛掉之后,才會啟動一個對應的 salve 節點,充當 master 。

需要注意的是:必須要3個或以上的主節點,否則在創建集群時會失敗,並且當存活的主節點數小於總節點數的一半時,整個集群就無法提供服務了。


====================
redis主從復制

redis主從配置比較簡單,基本就是在從節點配置文件加上:slaveof 192.168.33.130 6379
主要是通過master server持久化的rdb文件實現的。master server 先dump出內存快照文件,然后將rdb文件傳給slave server,slave server 根據rdb文件重建內存表。
redis復制過程如下:
1、slave server啟動連接到master server之后,salve server主動發送SYNC命令給master server
2、master server接受SYNC命令之后,判斷,是否有正在進行內存快照的子進程,如果有,則等待其結束,否則,fork一個子進程,子進程把內存數據保存為文件,並發送給slave server
3、master server子進程進程做數據快照時,父進程可以繼續接收client端請求寫數據,此時,父進程把新寫入的數據放到待發送緩存隊列中
4、slave server 接收內存快照文件之后,清空內存數據,根據接收的快照文件,重建內存表數據結構
5、master server把快照文件發送完畢之后,發送緩存隊列中保存的子進程快照期間改變的數據給slave server,slave server做相同處理,保存數據一致性
6、master server 后續接收的數據,都會通過步驟1建立的連接,把數據發送到slave server
需要注意:slave server如果因為網絡或其他原因斷與master server的連接,當slave server重新連接時,需要重新獲取master server的內存快照文件,slave server的數據會自動全部清空,然后再重新建立內存表,這樣會讓slave server 啟動恢復服務比較慢,同時也給master server帶來較大壓力,可以看出redis的復制沒有增量復制的概念,這是redis主從復制的一個主要弊端,在實際環境中,盡量規避中途增加從庫
redis2.8之前不支持增量,到2.8之后就支持增量了!


redis cluster(集群)
redis集群配置參考我的博文:http://blog.csdn.net/nuli888/article/details/52134117
3.0之后的功能,至少需要3(Master)+3(Slave)才能建立集群,是無中心的分布式存儲架構,可以在多個節點之間進行數據共享,解決了Redis高可用、可擴展等問題。
Redis集群提供了以下兩個好處
1、將數據自動切分(split)到多個節點
2、當集群中的某一個節點故障時,redis還可以繼續處理客戶端的請求。
一個 redis 集群包含 16384 個哈希槽(hash slot),數據庫中的每個數據都屬於這16384個哈希槽中的一個。集群使用公式 CRC16(key) % 16384 來計算鍵 key 屬於哪個槽。集群中的每一個節點負責處理一部分哈希槽。
集群中的主從復制
集群中的每個節點都有1個至N個復制品,其中一個為主節點,其余的為從節點,如果主節點下線了,集群就會把這個主節點的一個從節點設置為新的主節點,繼續工作。這樣集群就不會因為一個主節點的下線而無法正常工作
注意:
1、如果某一個主節點和他所有的從節點都下線的話,redis集群就會停止工作了。redis集群不保證數據的強一致性,在特定的情況下,redis集群會丟失已經被執行過的寫命令
2、使用異步復制(asynchronous replication)是redis 集群可能會丟失寫命令的其中一個原因,有時候由於網絡原因,如果網絡斷開時間太長,redis集群就會啟用新的主節點,之前發給主節點的數據就會丟失。


==========
Redis Cluster功能特點如下:

所有的節點相互連接

集群消息通信通過集群總線通信,,集群總線端口大小為客戶端服務端口+10000,這個10000是固定值

節點與節點之間通過二進制協議進行通信

客戶端和集群節點之間通信和通常一樣,通過文本協議進行

集群節點不會代理查詢

數據按照Slot存儲分布在多個Redis實例上

集群節點掛掉會自動故障轉移

可以相對平滑擴/縮容節點


==========

Redis Cluster采用無中心結構,每個節點保存數據和整個集群狀態,每個節點都和其他所有節點連接。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM