軟件磁盤陣列 (Software RAID)


什么是 RAID

磁盤陣列全名是『 Redundant Arrays of Inexpensive Disks, RAID 』,容錯式廉價磁盤陣列。 RAID 可以通過一些技術(軟件或硬件),將多個較小的磁盤整合成為一個較大的磁盤設備; 而這個較大的磁盤功能可不止是儲存而已,他還具有數據保護的功能呢。整個 RAID 由亍選擇的等級 (level) 不同,而使得整合后的磁盤具有不同的功能, 基本常見的 level 有這幾種(注1):


RAID-0 (等量模式, stripe):效能最佳
這種模式如果使用相同型號與容量的磁盤來組成時,效果較佳。這種模式的 RAID 會將磁盤先切出等量的區塊 (舉例來說, 4KB), 然后當一個文件要寫入 RAID 時,該文件會依據塊的大小切割好,之后再依序放到各個磁盤里面去。由於每個磁盤會交錯的存放數據, 因此當你的數據要寫入 RAID 時,數據會被等量的放置在各個磁盤上面。舉例來說,你有兩顆磁盤組成 RAID-0 , 當你有 100MB 的數據要寫入時,每個磁盤會各被分配到 50MB 的儲存量。RAID-0 的示意圖如下所示:


RAID-1 (映像模式, mirror):完整備份
這種模式也是需要相同的磁盤容量的,最好是一模一樣的磁盤啦!如果是不同容量的磁盤組成 RAID-1 時,那么總容量將以最小的那一顆磁盤為主!這種模式主要是『讓同一份數據,完整的保存在兩顆磁盤上頭』。舉例來說,如果我有一個 100MB 的檔案,且我僅有兩顆磁盤組成 RAID-1 時, 那么這兩顆磁盤將會同步寫入 100MB 到他們的儲存空間去。 因此,整體 RAID 的容量幾乎少了 50%。由於兩顆硬盤內容一模一樣,好像鏡子映照出來一樣, 所以我們也稱他為 mirror(鏡像) 模式。


RAID 0+1,RAID 1+0
RAID-0 的效能佳但是數據不安全,RAID-1 的數據安全但是效能不佳,那么能不能將這兩者整合起來設置 RAID 呢? 可以啊!那就是 RAID 0+1 或 RAID 1+0。所謂的 RAID 0+1 就是: (1)先讓兩顆磁盤組成 RAID 0,再讓這樣的設置共有兩組; (2)將這兩組 RAID 0 再組成一組 RAID 1。這就是 RAID 0+1 啰!反過來說,RAID 1+0 就是先組成 RAID-1 再組成 RAID-0 的意思。



RAID 5:性能與數據備份的均衡考慮
RAID-5 至少需要三塊以上的磁盤才能夠組成這種類型的磁盤陣列。這種磁盤陣列的數據寫入有點類似 RAID-0 , 不過每個循環的寫入過程中,在每顆磁盤還加入一個同位檢查數據 (Parity) ,這個數據會記錄其他磁盤的備份數據, 用於當有磁盤損毀時的救援。RAID-5 讀寫的情況有點像底下這樣:



Spare Disk:預備磁盤的功能
當磁盤陣列的磁盤損毀時,就得要將壞掉的磁盤拔除,然后換一顆新的磁盤。換成新磁盤並且順利啟勱磁盤陣列后, 磁盤陣列就會開始主動的重建 (rebuild) 原本壞掉的那顆磁盤數據到新的磁盤上!然后你磁盤陣列上面的數據就復原了! 這就是磁盤陣列的優點。不過,我們還是得要動手拔插硬盤,此時通常得要關機才能這么做。 為了讓系統可以實時的在壞掉硬盤時主動的重建,因此就需要預備磁盤 (spare disk) 的輔助。 所謂的 spare disk 就是一顆或多顆沒有包含在原本磁盤陣列等級中的磁盤,這顆磁盤平時並不會被磁盤陣列所使用, 當磁盤陣列有任何磁盤損毀時,則這顆 spare disk 會被主動的拉進磁盤陣列中,再將壞掉的那顆硬盤移出磁盤陣列! 然后立即重建數據系統。如此你的系統則可以永保安康啊!若你的磁盤陣列有支持熱拔插那就更完美了! 直接將壞掉的那顆磁盤拔除換一顆新的,再將那顆新設置成為 spare disk ,就完成了!


磁盤陣列的優點:

說的口沫橫飛,重點在哪里呢?其實你的系統如果需要磁盤陣列的話,其實重點在於:
 數據安全與可靠性:指的並非信息安全,而是的那個硬件 (指磁盤) 損毀時,數據是否還能夠安全的救援或使用之意;
 讀寫效能:例如 RAID 0 可以加強讀寫效能,讓你的系統 I/O 部分得以改善;
 容量:可以讓多塊磁盤組合起來,故單一文件系統可以有相當大的容量。
尤其數據的可靠性與完整性更是使用 RAID 的考慮重點!畢竟硬件壞掉換掉就好了,軟件數據損毀那可不是鬧着玩的! 所以企業界為何需要大量的 RAID 來做為文件系統的硬件基准,現在您有點了解了吧?


software, hardware RAID

硬件磁盤陣列 (hardware RAID) 是透過磁盤陣列卡來達成數組的目的。 磁盤陣列卡上面有一塊專門的芯片在處理 RAID 的仸務,因此在效能方面會比較好。在很多任務 (例如 RAID 5 的同位檢查碼計算) 磁盤陣列並不會重復消耗原本系統的 I/O 總線,理論上效能會較佳。此外目前一般的中高階磁盤陣列卡都支持熱拔插, 亦即在不關機的情況下抽換損壞的磁盤,對於系統的復原與數據的可靠性方面非常的好用。

軟件磁盤陣列 (software RAID)。軟件磁盤陣列主要是透過軟件來仿真數組的仸務, 因此會損耗較多的系統資源,比如說 CPU 的運算不 I/O 總線的資源等。

另外你必項要知道的是,硬件磁盤陣列在 Linux 底下看起來就是一顆實際的大磁盤,因此硬件磁盤陣列的裝置文件名為 /dev/sd[a-p] ,因為使用到 SCSI 的模坑之故。至於軟件磁盤陣列則是系統仿真的,因此使用的裝置文件名是系統的裝置文件, 文件名為 /dev/md0, /dev/md1...,兩者的裝置文件名並不相同!


軟件磁盤陣列的設定:

 

[cpp]  view plain copy print ?
 
  1. # mdadm --create --auto=yes /dev/md[0-9] --raid-devices=N --level=[015] --spare-devices=N /dev/sdx /dev/hdx...  
  2. 選頃不參數:   
  3. --create :為建立 RAID 的參數。  
  4. --auto=yes :決定建立后面接的軟件磁盤陣列裝置,亦即 /dev/md0,/dev/md1...  
  5. --raid-devices=N :使用幾個磁盤 (partition) 作為磁盤陣列的裝置  
  6. --spare-devices=N :使用幾個磁盤作為備用 (spare) 裝置  
  7. --level=[015] :設定這組磁盤陣列的等級。支持很多,不過建議只要用 0, 1, 5 即可  
  8. --detail :后面所接的那個磁盤陣列裝置的詳紳信息  

 

 

利用我的測試機來建置一個 RAID 5 的軟件磁盤陣列給您瞧瞧!

 

[cpp]  view plain copy print ?
 
  1. [root@linux ~]# fdisk -l  
  2.   
  3. Disk /dev/sda: 8589 MB, 8589934592 bytes  
  4. 255 heads, 63 sectors/track, 1044 cylinders  
  5. Units = cylinders of 16065 * 512 = 8225280 bytes  
  6.   
  7.    Device Boot      Start         End      Blocks   Id  System  
  8. /dev/sda1   *           1          13      104391   83  Linux  
  9. /dev/sda2              14         274     2096482+  82  Linux swap / Solaris  
  10. /dev/sda3             275        1044     6185025   83  Linux  
  11.   
  12. Disk /dev/sdb: 8589 MB, 8589934592 bytes  
  13. 255 heads, 63 sectors/track, 1044 cylinders  
  14. Units = cylinders of 16065 * 512 = 8225280 bytes  
  15.   
  16.    Device Boot      Start         End      Blocks   Id  System  
  17.   
  18. Disk /dev/sdc: 8589 MB, 8589934592 bytes  
  19. 255 heads, 63 sectors/track, 1044 cylinders  
  20. Units = cylinders of 16065 * 512 = 8225280 bytes  
  21.   
  22.    Device Boot      Start         End      Blocks   Id  System  
  23.   
  24. Disk /dev/sdd: 8589 MB, 8589934592 bytes  
  25. 255 heads, 63 sectors/track, 1044 cylinders  
  26. Units = cylinders of 16065 * 512 = 8225280 bytes  
  27.   
  28.    Device Boot      Start         End      Blocks   Id  System  
  29.   
  30. Disk /dev/sde: 8589 MB, 8589934592 bytes  
  31. 255 heads, 63 sectors/track, 1044 cylinders  
  32. Units = cylinders of 16065 * 512 = 8225280 bytes  
  33.   
  34.    Device Boot      Start         End      Blocks   Id  System  
  35.   
  36. Disk /dev/sdf: 8589 MB, 8589934592 bytes  
  37. 255 heads, 63 sectors/track, 1044 cylinders  
  38. Units = cylinders of 16065 * 512 = 8225280 bytes  
  39.   
  40. Disk /dev/sdf doesn't contain a valid partition table  

 

 

下面是我希望做成的 RAID 5 環境:
 利用 4 個磁盤組成 RAID 5;
 每個磁盤約為 8GB 大小,需確定每個磁盤一樣大較佳;
 利用 1 個磁盤設定為 spare disk
 這個 spare disk 的大小與其他 RAID 所需磁盤一樣大!
 將此 RAID 5 裝置掛載到 /mnt/raid 目錄下
最終我需要 5 個 8GB 的磁盤。

 

[cpp]  view plain copy print ?
 
  1. [root@linux ~]# mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=4 --spare-devices=1 /dev/sd{b,c,d,e,f}  
  2. mdadm: array /dev/md0 started.  
  3.   
  4. [root@linux ~]# mdadm --detail /dev/md0  
  5. /dev/md0:                                                  --RADI設備名  
  6.         Version : 0.90  
  7.   Creation Time : Thu Feb 16 19:11:44 2012                 --RAID被創建的時間  
  8.      Raid Level : raid5                                    --RAID等級為RAID 5  
  9.      Array Size : 25165632 (24.00 GiB 25.77 GB)            --此RAID的可用磁盤容量  
  10.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)               --每個設備的可用容量  
  11.    Raid Devices : 4                                        --用作RAID的設備數量  
  12.   Total Devices : 5                                        --全部設備的數量  
  13. Preferred Minor : 0  
  14.     Persistence : Superblock is persistent  
  15.   
  16.     Update Time : Thu Feb 16 19:14:22 2012  
  17.           State : clean  
  18.  Active Devices : 4                                        --啟動的設備數量  
  19. Working Devices : 5                                        --可動作的設備數量  
  20.  Failed Devices : 0                                        --出現錯誤的設備數量  
  21.   Spare Devices : 1                                        --預備磁盤的數量  
  22.   
  23.          Layout : left-symmetric  
  24.      Chunk Size : 64K  
  25.   
  26.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b      --此設備的RAID標識符  
  27.          Events : 0.2  
  28.   
  29.     Number   Major   Minor   RaidDevice State  
  30.        0       8       16        0      active sync   /dev/sdb  
  31.        1       8       32        1      active sync   /dev/sdc  
  32.        2       8       48        2      active sync   /dev/sdd  
  33.        3       8       64        3      active sync   /dev/sde  
  34.   
  35.        4       8       80        -      spare   /dev/sdf  

 

 

也可以查閱如下的檔案杢看看系統軟件磁盤陣列的情況:

[cpp]  view plain copy print ?
 
  1. [root@linux ~]# cat /proc/mdstat  
  2. Personalities : [raid6] [raid5] [raid4]   
  3. md0 : active raid5 sde[3] sdf[4](S) sdd[2] sdc[1] sdb[0]                --第一行  
  4.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]      --第二行  
  5.         
  6. unused devices: <none>  

第一行部分:指出 md0 為 raid5 ,丏使用了 sdb, sdc, sdd, sde 等四顆磁盤裝置。每個裝置后面的中括號 [] 內的數字為此磁盤在 RAID 中的順序 (RaidDevice);至亍 sdf 后面的 [S] 則代表 sdf 為 spare 之意。

 

第二行:此磁盤陣列擁有 25165632 個block(每個 block 單位為 1K),所以怪容量約為24GB, 使用 RAID 5 等級,寫入磁盤的小區坑 (chunk) 大小為 64K,使用 algorithm 2 磁盤陣列算法。 [m/n] 代表此數組需要 m 個裝置,且 n 個裝置正常運作。因此本 md0 需要 4 個裝置且這 4 個裝置均正常運作。 后面的 [UUUU] 代表的是四個所需的裝置 (就是 [m/n] 里面的 m) 的啟勱情況,U 代表正常運作,若為 _ 則代表不正常。


格式化與掛載使用RAID

 

[cpp]  view plain copy print ?
 
  1. [root@linux ~]# mkfs -t ext3 /dev/md0  
  2. mke2fs 1.39 (29-May-2006)  
  3. Filesystem label=  
  4. OS type: Linux  
  5. Block size=4096 (log=2)  
  6. Fragment size=4096 (log=2)  
  7. 3145728 inodes, 6291408 blocks  
  8. 314570 blocks (5.00%) reserved for the super user  
  9. First data block=0  
  10. Maximum filesystem blocks=0  
  11. 192 block groups  
  12. 32768 blocks per group, 32768 fragments per group  
  13. 16384 inodes per group  
  14. Superblock backups stored on blocks:   
  15.         32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,   
  16.         4096000  
  17.   
  18. Writing inode tables: done                              
  19. Creating journal (32768 blocks): done  
  20. Writing superblocks and filesystem accounting information: done  
  21.   
  22. This filesystem will be automatically checked every 22 mounts or  
  23. 180 days, whichever comes first.  Use tune2fs -c or -i to override.  
  24. [root@linux ~]# mkdir /mnt/raid  
  25. [root@linux ~]# mount /dev/md0 /mnt/raid/  
  26. [root@linux ~]# df  
  27. 文件系統               1K-塊        已用     可用 已用% 掛載點  
  28. /dev/sda3              5991232   2656564   3025420  47% /  
  29. /dev/sda1               101086     11373     84494  12% /boot  
  30. tmpfs                   517548         0    517548   0% /dev/shm  
  31. /dev/md0              24770748    176200  23336268   1% /mnt/raid  


仿真 RAID 錯誤的救援模式

 

 

[cpp]  view plain copy print ?
 
  1. # mdadm --manage /dev/md[0-9] [--add 設備] [--remove 設備] [--fail 設備]  
  2. 參數:   
  3. --add :會將后面的設備加入到這個 md 中!   
  4. --remove :會將后面的設備從這個 md 中移除   
  5. --fail :會將后面的設備設定成為出錯的狀態  


設置磁盤為錯誤

 

 

[cpp]  view plain copy print ?
 
  1. [root@linux raid]# cp -a /etc/ /var/log/ /mnt/raid/            --先復制一些數據  
  2. [root@linux raid]# df /mnt/raid/  
  3. 文件系統               1K-塊        已用     可用 已用% 掛載點  
  4. /dev/md0              24770748    279932  23232536   2% /mnt/raid  
  5. [root@linux raid]# du -sm /mnt/raid/*  
  6. 106     /mnt/raid/etc                 --看吧!確實有數據在里面  
  7. 2       /mnt/raid/log  
  8. 1       /mnt/raid/lost+found  
  9. [root@linux raid]# ll /mnt/raid/  
  10. 總計 40  
  11. drwxr-xr-x 101 root root 12288 02-16 20:37 etc  
  12. drwxr-xr-x  16 root root  4096 02-16 18:24 log  
  13. drwx------   2 root root 16384 02-16 20:36 lost+found  
  14. [root@linux raid]# mdadm --manage /dev/md0 --fail /dev/sdb          --假設這個磁盤設備出錯了。  
  15. mdadm: set /dev/sdb faulty in /dev/md0  
  16. [root@linux raid]# mdadm --detail /dev/md0   
  17. /dev/md0:  
  18.         Version : 0.90  
  19.   Creation Time : Thu Feb 16 19:11:44 2012  
  20.      Raid Level : raid5  
  21.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
  22.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
  23.    Raid Devices : 4  
  24.   Total Devices : 5  
  25. Preferred Minor : 0  
  26.     Persistence : Superblock is persistent  
  27.   
  28.     Update Time : Thu Feb 16 20:51:49 2012  
  29.           State : clean, degraded, recovering  
  30.  Active Devices : 3  
  31. Working Devices : 4  
  32.  Failed Devices : 1                                      --出錯的磁盤有一個  
  33.   Spare Devices : 1  
  34.   
  35.          Layout : left-symmetric  
  36.      Chunk Size : 64K  
  37.   
  38.  Rebuild Status : 16% complete  
  39.   
  40.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
  41.          Events : 0.4  
  42.   
  43.     Number   Major   Minor   RaidDevice State  
  44.        4       8       80        0      spare rebuilding   /dev/sdf  
  45.        1       8       32        1      active sync   /dev/sdc  
  46.        2       8       48        2      active sync   /dev/sdd  
  47.        3       8       64        3      active sync   /dev/sde  
  48.   
  49.        5       8       16        -      faulty spare   /dev/sdb  
  50. [root@linux raid]# cat /proc/mdstat  
  51. Personalities : [raid6] [raid5] [raid4]   
  52. md0 : active raid5 sde[3] sdf[4] sdd[2] sdc[1] sdb[5](F)  
  53.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/3] [_UUU]  
  54.       [======>..............]  recovery = 34.3% (2878256/8388544) finish=3.2min speed=28577K/sec  
  55.         
  56. unused devices: <none>  


重建完畢的RAID 5情況

 

 

[cpp]  view plain copy print ?
 
  1. [root@linux raid]# cat /proc/mdstat  
  2. Personalities : [raid6] [raid5] [raid4]   
  3. md0 : active raid5 sde[3] sdf[0] sdd[2] sdc[1] sdb[4](F)  
  4.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]  
  5.         
  6. unused devices: <none>  
  7. [root@linux raid]# mdadm --detail /dev/md0  
  8. /dev/md0:  
  9.         Version : 0.90  
  10.   Creation Time : Thu Feb 16 19:11:44 2012  
  11.      Raid Level : raid5  
  12.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
  13.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
  14.    Raid Devices : 4  
  15.   Total Devices : 5  
  16. Preferred Minor : 0  
  17.     Persistence : Superblock is persistent  
  18.   
  19.     Update Time : Thu Feb 16 21:02:31 2012  
  20.           State : clean  
  21.  Active Devices : 4  
  22. Working Devices : 4  
  23.  Failed Devices : 1  
  24.   Spare Devices : 0  
  25.   
  26.          Layout : left-symmetric  
  27.      Chunk Size : 64K  
  28.   
  29.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
  30.          Events : 0.12  
  31.   
  32.     Number   Major   Minor   RaidDevice State  
  33.        0       8       80        0      active sync   /dev/sdf  
  34.        1       8       32        1      active sync   /dev/sdc  
  35.        2       8       48        2      active sync   /dev/sdd  
  36.        3       8       64        3      active sync   /dev/sde  
  37.   
  38.        4       8       16        -      faulty spare   /dev/sdb  


將錯誤的磁盤刪除並加入新磁盤

 

 

[cpp]  view plain copy print ?
 
  1. [root@linux raid]# mdadm --manage /dev/md0 --remove /dev/sdb   
  2. mdadm: hot removed /dev/sdb  
  3. [root@linux raid]# cat /proc/mdstat  
  4. Personalities : [raid6] [raid5] [raid4]   
  5. md0 : active raid5 sde[3] sdf[0] sdd[2] sdc[1]  
  6.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]  
  7.         
  8. unused devices: <none>  
  9. [root@linux raid]# mdadm --detail /dev/md0  
  10. /dev/md0:  
  11.         Version : 0.90  
  12.   Creation Time : Thu Feb 16 19:11:44 2012  
  13.      Raid Level : raid5  
  14.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
  15.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
  16.    Raid Devices : 4  
  17.   Total Devices : 4  
  18. Preferred Minor : 0  
  19.     Persistence : Superblock is persistent  
  20.   
  21.     Update Time : Thu Feb 16 21:06:32 2012  
  22.           State : clean  
  23.  Active Devices : 4  
  24. Working Devices : 4  
  25.  Failed Devices : 0  
  26.   Spare Devices : 0  
  27.   
  28.          Layout : left-symmetric  
  29.      Chunk Size : 64K  
  30.   
  31.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
  32.          Events : 0.14  
  33.   
  34.     Number   Major   Minor   RaidDevice State  
  35.        0       8       80        0      active sync   /dev/sdf  
  36.        1       8       32        1      active sync   /dev/sdc  
  37.        2       8       48        2      active sync   /dev/sdd  
  38.        3       8       64        3      active sync   /dev/sde  
  39. [root@linux raid]# mdadm --manage /dev/md0 --add /dev/sdb  
  40. mdadm: added /dev/sdb  
  41. [root@linux raid]# mdadm --detail /dev/md0  
  42. /dev/md0:  
  43.         Version : 0.90  
  44.   Creation Time : Thu Feb 16 19:11:44 2012  
  45.      Raid Level : raid5  
  46.      Array Size : 25165632 (24.00 GiB 25.77 GB)  
  47.   Used Dev Size : 8388544 (8.00 GiB 8.59 GB)  
  48.    Raid Devices : 4  
  49.   Total Devices : 5  
  50. Preferred Minor : 0  
  51.     Persistence : Superblock is persistent  
  52.   
  53.     Update Time : Thu Feb 16 21:06:32 2012  
  54.           State : clean  
  55.  Active Devices : 4  
  56. Working Devices : 5  
  57.  Failed Devices : 0  
  58.   Spare Devices : 1  
  59.   
  60.          Layout : left-symmetric  
  61.      Chunk Size : 64K  
  62.   
  63.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
  64.          Events : 0.14  
  65.   
  66.     Number   Major   Minor   RaidDevice State  
  67.        0       8       80        0      active sync   /dev/sdf  
  68.        1       8       32        1      active sync   /dev/sdc  
  69.        2       8       48        2      active sync   /dev/sdd  
  70.        3       8       64        3      active sync   /dev/sde  
  71.   
  72.        4       8       16        -      spare   /dev/sdb  
  73. [root@linux raid]# cat /proc/mdstat  
  74. Personalities : [raid6] [raid5] [raid4]   
  75. md0 : active raid5 sdb[4](S) sde[3] sdf[0] sdd[2] sdc[1]  
  76.       25165632 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]  
  77.         
  78. unused devices: <none>  


開機自動啟動RAID並自動掛載

 

 

[cpp]  view plain copy print ?
 
  1. [root@linux raid]# mdadm --detail /dev/md0 | grep UUID  
  2.            UUID : 84c5171f:50290a3e:8673f81b:4cc9501b  
  3. [root@linux raid]# vi /etc/mdadm.conf  
  4. ARRAY /dev/md0 UUID=84c5171f:50290a3e:8673f81b:4cc9501b  
  5. [root@linux raid]# vi /etc/fstab  
  6. /dev/md0                /mnt/raid               ext3    defaults        1 2  
  7. [root@linux ~]# umount /dev/md0   
  8. [root@linux ~]# df  
  9. 文件系統               1K-塊        已用     可用 已用% 掛載點  
  10. /dev/sda3              5991232   2655024   3026960  47% /  
  11. /dev/sda1               101086     11373     84494  12% /boot  
  12. tmpfs                   517548         0    517548   0% /dev/shm  
  13. [root@linux ~]# mount -a                                              --參數 -a:依照配置文件 /etc/fstab 的數據將所有未掛載的磁盤都掛載上來  
  14. [root@linux ~]# df  
  15. 文件系統               1K-塊        已用     可用 已用% 掛載點  
  16. /dev/sda3              5991232   2655024   3026960  47% /  
  17. /dev/sda1               101086     11373     84494  12% /boot  
  18. tmpfs                   517548         0    517548   0% /dev/shm  
  19. /dev/md0              24770748    279936  23232532   2% /mnt/raid  


關閉軟件RAID

 

除非你未來就是要使用這顆 software RAID (/dev/md0),否則你勢必要將這個 /dev/md0 關閉!如果你只是將 /dev/md0 卸除,然后忘記將 RAID 關閉, 結果就是....未來你在重新分割 /dev/sb* 時可能會出現一些莫名的錯錯誤狀況啦!

 

[cpp]  view plain copy print ?
 
  1. # 1. 先卸載且刪除配置文件內與這個 /dev/md0 有關的設置:   
  2. [root@linux ~]# umount /dev/md0   
  3. [root@linux ~]# vi /etc/fstab   
  4. /dev/md0 /mnt/raid ext3 defaults 1 2  --將這一行刪除掉!或者是批注掉也可以!   
  5. # 2. 直接關閉 /dev/md0 的方法!   
  6. [root@linux ~]# mdadm --stop /dev/md0   
  7. mdadm: stopped /dev/md0                       --這樣就關閉了!   
  8. [root@linux ~]# cat /proc/mdstat   
  9. Personalities : [raid6] [raid5] [raid4]   
  10. unused devices: <none>                          --看吧!確實不存在仸何數組設備!   
  11. [root@linux ~]# vi /etc/mdadm.conf   
  12. ARRAY /dev/md0 UUID=84c5171f:50290a3e:8673f81b:4cc9501b       --同樣啦!刪除他或是批注他!  

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM