在多個進程同時操作同一份文件的過程中,很容易導致文件中的數據混亂,需要鎖操作來保證數據的完整性,這里介紹的針對文件的鎖,稱之為“文件鎖”-flock。
flock,建議性鎖,不具備強制性。一個進程使用flock將文件鎖住,另一個進程可以直接操作正在被鎖的文件,修改文件中的數據,原因在於flock只是用於檢測文件是否被加鎖,針對文件已經被加鎖,另一個進程寫入數據的情況,內核不會阻止這個進程的寫入操作,也就是建議性鎖的內核處理策略。
flock主要三種操作類型:
LOCK_SH,共享鎖,多個進程可以使用同一把鎖,常被用作讀共享鎖;
LOCK_EX,排他鎖,同時只允許一個進程使用,常被用作寫鎖;
LOCK_UN,釋放鎖;
進程使用flock嘗試鎖文件時,如果文件已經被其他進程鎖住,進程會被阻塞直到鎖被釋放掉,或者在調用flock的時候,采用LOCK_NB參數,在嘗試鎖住該文件的時候,發現已經被其他服務鎖住,會返回錯誤,errno錯誤碼為EWOULDBLOCK。即提供兩種工作模式:阻塞與非阻塞類型。
flock只能對整個文件加鎖,不能對文件的一部分進行加鎖。
運用示例如下:
vi test.sh
#! /bin/bash echo "Hello World" sleep 10
touch test.lock #隨便命名
[root@localhost ~]# flock -xn ./test.lock -c "sh /root/test.sh"
運行中...
開啟另外一個bash窗口運行
[root@localhost ~]# flock -xn ./test.lock -c "sh /root/test.sh"
前面未獲取到鎖直接返回 直到其他運行完畢 這個才開始運行
計划任務中運用
1 crontab運用flock防止重復執行
* * * * * (flock -xn ./test.lock -c "sh /root/test.sh") #-n 為非阻塞模式
2 機器down機自動啟動或重啟
可以在daemon開始的時候, 打開一個文件然后獲取一個寫鎖. 守護腳本也打開文件並設置寫鎖, 然后阻塞, 一旦寫鎖獲得成功, 則說明daemon已經掛了. 此時守護腳本重啟daemon並放棄寫鎖.
運行
flock -x ./test.lock -c "/usr/local/nginx/sbin/nginx" #去掉-n表示使用阻塞模式
運行中...
再次執行
flock -x ./test.lock -c "/usr/local/nginx/sbin/nginx" #去掉-n表示使用阻塞模式
阻塞中...
模擬down機
[root@localhost ~]# ps aux |grep "nginx"|grep"master"|grep -v "grep"|awk'{print $2}'|xargskill -9
kill后阻塞的命令馬上執行 新的進程PID立馬產生,實現效果
附加flock參數
-s,--shared:獲取一個共享鎖,在定向為某文件的FD上設置共享鎖而未釋放鎖的時間內,其他進程試圖在定向為此文件的FD上設置獨占鎖的請求失敗,而其他進程試圖在定向為此文件的FD上設置共享鎖的請求會成功。
-x,-e,--exclusive:獲取一個排它鎖,或者稱為寫入鎖,為默認項
-u,--unlock:手動釋放鎖,一般情況不必須,當FD關閉時,系統會自動解鎖,此參數用於腳本命令一部分需要異步執行,一部分可以同步執行的情況。
-n,--nb, --nonblock:非阻塞模式,當獲取鎖失敗時,返回1而不是等待
-w, --wait, --timeout seconds:設置阻塞超時,當超過設置的秒數時,退出阻塞模式,返回1,並繼續執行后面的語句
-o, --close:表示當執行command前關閉設置鎖的FD,以使command的子進程不保持鎖。
-c, --command command:在shell中執行其后的語句