99-oracle-asmdevices.rules(udev方式創建asm磁盤)


一、創建asm磁盤的幾種方式
創建asm方式很多主要有以下幾種
1、Faking方式
2、裸設備方式
3、udev方式(它下面有兩種方式)
  3.1 uuid方式.
  3.2 raw方式(裸設備方式)
4、asmlib方式(oracleasm)

二、環境情況采樣
[grid@shdb02 ~]$ cat /etc/redhat-release 
Red Hat Enterprise Linux Server release 6.4 (Santiago)
[grid@shfpdb02 ~]$ uname -r
2.6.32-358.el6.x86_64
三、使用asmca創建磁盤組,四個磁盤組

NAME STATE
------------------------------ ----------- ARCH MOUNTED DATA MOUNTED FRA MOUNTED OCR MOUNTED

四、創建asm磁盤,前提條件是需要准備以下

1、A disk or partition from a storage array //一個磁盤或者是磁盤陣列的分區
2、An entire disk or the partitions of a disk //是一個完整的磁盤或是一個磁盤的分區
3、Logical volumes              //一個磁盤的邏輯卷
4、Network-attached files (NAS) //NAS(Network-attached storage,網絡連接存儲)

五、lsblk -f | grep sd ,得到目前創建的磁盤對應關系
[root@shfpdb02 grid]# lsblk -f | grep sd
sda 
├─sda1 ext4 cf0f3592-a2dc-497c-be07-d4f1e0d42253 /boot
└─sda2 LVM2_member nY2JaS-cCZf-qn6E-f4XS-i6Ph-Bf3Y-DxLWF9 
sdb oracleasm 
sdc oracleasm 
sdd oracleasm 
sde oracleasm 
sdf oracleasm 
sdg oracleasm 
sdh oracleasm 
sdi oracleasm 
sdj 
sdk oracleasm 
sdl oracleasm 
sdm oracleasm 
sdn oracleasm 
sdo oracleasm 
sdp oracleasm 
sdq oracleasm 
sdr oracleasm 
sds oracleasm 
sdt oracleasm 
sdu oracleasm 
sdv oracleasm 
sdw oracleasm 
sdx oracleasm 
sdy oracleasm 
sdz oracleasm 
sdaa oracleasm 
sdab oracleasm 
sdac oracleasm 
sdad oracleasm

六、udev方式創建asm磁盤大致創建過程

一、udev方式創建asm磁盤,采用uuid需要添加多塊磁盤。大致流程如下
1、獲取需要綁定為ASM Disk的磁盤uuid 2、新建/etc/udev/rules.d/99-oracle-asmdevices.rules,增加.... 3、重啟start_udev服務 二、/etc/udev/rules.d/99-oracle-asmdevices.rules創建 1、獲取需要綁定為ASM Disk的磁盤uuid,比如我們要使用/dev/asm-diskaa作為ASM磁盤,那么uuid,下面實際文件中有: [grid@shfpdb02 ~]$ /sbin/scsi_id -g -u -d /dev/asm-diskaa 369ce37410023334d07db5f9700000019 2、重啟服務: [root@rac1 ~]# start_udev Starting udev: [ OK ]


我們看下asm磁盤和真正的磁盤分區的對應關系

  [root@shfpdb02 src]# ls /dev/asm*
  /dev/asm-diskaa /dev/asm-diskb /dev/asm-diskf /dev/asm-diskk /dev/asm-disko /dev/asm-disks /dev/asm-diskw
  /dev/asm-diskab /dev/asm-diskc /dev/asm-diskg /dev/asm-diskl /dev/asm-diskp /dev/asm-diskt /dev/asm-diskx
  /dev/asm-diskac /dev/asm-diskd /dev/asm-diskh /dev/asm-diskm /dev/asm-diskq /dev/asm-disku /dev/asm-disky
  /dev/asm-diskad /dev/asm-diske /dev/asm-diski /dev/asm-diskn /dev/asm-diskr /dev/asm-diskv /dev/asm-diskz

 [root@shfpdb02 src]# ls /dev/sd*
  /dev/sda /dev/sdaa /dev/sdad /dev/sdd /dev/sdg /dev/sdj /dev/sdm /dev/sdp /dev/sds /dev/sdv /dev/sdy
  /dev/sda1 /dev/sdab /dev/sdb /dev/sde /dev/sdh /dev/sdk /dev/sdn /dev/sdq /dev/sdt /dev/sdw /dev/sdz
  /dev/sda2 /dev/sdac /dev/sdc /dev/sdf /dev/sdi /dev/sdl /dev/sdo /dev/sdr /dev/sdu /dev/sdx

  //磁盤的uuid是唯一的..不管名稱有什么變化.

[root@shfpdb02 src]# /sbin/scsi_id -g -u -d /dev/sdaa
369ce37410023334d07db5f9700000019

 [root@shfpdb02 src]# /sbin/scsi_id -g -u -d /dev/asm-diskaa
  369ce37410023334d07db5f9700000019

//我們看到他們是一樣的

   /etc/init.d/oracleasm createdisk asm-diskaa /dev/sdaa //這樣對應起來的


七、查看創建的磁盤組,查詢可得
SQL> select name,state from v$asm_diskgroup;

NAME                   STATE
------------------------------ -----------
ARCH                   MOUNTED
DATA                   MOUNTED
FRA                   MOUNTED
OCR                   MOUNTED

SQL> set line 9999
SQL> select group_number,disk_number ,path from v$asm_disk;

GROUP_NUMBER DISK_NUMBER PATH
------------ ----------- ---------------------------------------------------------------- 
0    3 /dev/asm-disky
0    8 /dev/asm-diskz
0    10 /dev/asm-diskx
0    12 /dev/asm-diskw
0    14 /dev/asm-diskv
0    15 /dev/asm-disku
0    16 /dev/asm-diskt
0    18 /dev/asm-disks
2    3 /dev/asm-diskad
2    2 /dev/asm-diskac
1    4 /dev/asm-diski

GROUP_NUMBER DISK_NUMBER PATH
------------ ----------- -------------------------------------------------------------------------------------- 2    1 /dev/asm-diskab
2    0 /dev/asm-diskaa
1    1 /dev/asm-diskf
1    2 /dev/asm-diskg
1    0 /dev/asm-diske
4    2 /dev/asm-diskd
2    6 /dev/asm-diskq
2    7 /dev/asm-diskr
4    1 /dev/asm-diskc
2    5 /dev/asm-diskp

GROUP_NUMBER DISK_NUMBER PATH
------------ ----------- ------------------------------------------------------------ 3    3 /dev/asm-diskn
3    1 /dev/asm-diskl
3    2 /dev/asm-diskm
3    0 /dev/asm-diskk
4    0 /dev/asm-diskb

28 rows selected.
 
        
 
        
八、寫入udev .rules ( 99-oracle-asmdevices.rules.) udev方式綁定多路徑

[grid@shfpdb02 ~]$su - grid

[grid@shfpdb02 ~]$ ln -s /lib/libcap.so.2.16 /lib/libcap.so.1

[grid@shfpdb02 ~]$ echo "/sbin/start_udev" >> /etc/rc.local 

[grid@shfpdb02 ~]$vi /etc/udev/rules.d/99-oracle-asmdevices.rules 

[root@shfpdb02 grid]# cat /etc/udev/rules.d/99-oracle-asmdevices.rules
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d0029d52900000000", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d0029f6d900000001", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002a0ae000000002", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002a473e00000003", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002b566e00000004", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002b6ec600000005", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002ac4a400000006", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002ad45e00000007", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da033b00000003", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da038500000004", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da03ca00000005", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da03fc00000006", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da045100000007", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07dc2c4b00000008", NAME="asm-diskj", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da048700000009", NAME="asm-diskk", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da04df0000000a", NAME="asm-diskl", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da05170000000b", NAME="asm-diskm", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da05680000000c", NAME="asm-diskn", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da05a60000000d", NAME="asm-disko", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db20180000000e", NAME="asm-diskp", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db20500000000f", NAME="asm-diskq", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db209e00000010", NAME="asm-diskr", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db20d700000011", NAME="asm-disks", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db213300000012", NAME="asm-diskt", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5dbf00000013", NAME="asm-disku", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5e2100000014", NAME="asm-diskv", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5e5800000015", NAME="asm-diskw", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5eb200000016", NAME="asm-diskx", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5ef100000017", NAME="asm-disky", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5f5000000018", NAME="asm-diskz", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5f9700000019", NAME="asm-diskaa", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db60060000001a", NAME="asm-diskab", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db604e0000001b", NAME="asm-diskac", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db60ae0000001c", NAME="asm-diskad", OWNER="grid", GROUP="asmadmin", MODE="0660"

//重新加載udev規則配置文件
[grid@shfpdb02 ~]$ udevadm control --reload-rules
//start_udev命令可以重新啟動udev服務,udev服務重新讀取配置文件,在/dev/下創建真實設備的設備名稱
[grid@shfpdb02 ~]$ start_udev

  // 使規則生效,生成udev設備文件

[grid@shfpdb02 ~]$ udevadm trigger
[grid@shfpdb02 ~]$ reboot

 

九、udevadm命令來管理udev
udev是Linux內核的設備管理器。它主要的功能是管理/dev目錄底下的設備節點。它同時也是用來接替devfs(設備文件系統)及hotplug(熱拔插)的功能,
這意味着它要在添加/刪除硬件時處理/dev目錄以及所有用戶空間的行為,包括加載firmware時。

udevadm命令是管理udev的一個工具
   udevadm可以用來監視和控制udev運行時的行為,請求內核事件,管理事件隊列,以及提供簡單的調試機制
udevadm命令參數選項: --debug 打印錯誤信息 --version 打印版本信息 --help 幫助文檔 udevadm info options 查詢udev數據庫中的設備信息。也可以從sysfs文件系統中查詢到設備的屬性以輔助創建udev規則。 --query=type     從數據庫中查詢指定類型的設備。需要--path和--name來指定設備。合法的查詢文件是:設備名,鏈接,路徑,屬性 --path=devpath    設備的路徑 --name=file      設備節點或者鏈接 --attribute-walk    打印指定設備的所有sysfs記錄的屬性,以用來udev規則匹配特殊的設備。該選項打印鏈上的所有設備信息,最大可能到sys目錄。 --device-id-of-file=file 打印主/從設備號 --export-db      輸出udev數據庫中的內容 udevadm trigger [options]  接收內核發送來的設備事件。主要用於重放coldplug事件信息 (譯者補充:內核在啟動時已經檢測到了系統的硬件設備,並把硬件設備信息通過sysfs內核虛擬文件系統導出。udev掃描sysfs文件系統,根據硬件設備信息生成熱插拔(hotplug)事件,udev再讀取這些事件,生成對應的硬件設備文件。由於沒有實際的硬件插拔動作,所以這一過程被稱為coldplug。) --verbose     輸出將要被觸發的設備列表。 --dry-run      不真的觸發事件 --type=type     觸發一個特殊的設備。合法的類型:devices,subsystem,failed.默認是devices --action=action  被觸發的事件,默認是change --subsystem-match=subsystem  觸發匹配子系統的設備事件。這個選項可以被多次指定,並且支持shell模式匹配。 --attr-match=attribute=value    觸發匹配sysfs屬性的設備事件。如果屬性值和屬性一起指定,屬性的值可以使用shell模式匹配。如果沒有指定值,會重新確認現有屬性。這個選項可以被多次指定。 --attr-nomatch=attribute=value   不要觸發匹配屬性的設備事件。如果可以使用模式匹配。也可以多次指定 --property-match=property=value 匹配屬性吻合的設備。可以多次指定支持模式匹配 --tag-match=property       匹配標簽吻合的設備。可以多次指定。 --sysname-match=name     匹配sys設備名相同的設備。可以多次指定支持模式匹配。 udevadm settle [options]  查看udev事件隊列,如果所有事件全部處理完就退出。 --timeout=seconds     等待事件隊列空的最大時間。默認是180秒。如果是0則立即退出。 --seq-start=seqnum    只等待到給定的順序號。 --seq-end=seqnum    只等待到給定順序號之前。 --exit-if-exists=file     如果文件存在就退出 --quiet    不輸出任何信息 udevadm monitor [options]  監聽內核事件和udev發送的events事件。打印事件發出的設備。可以通過比較內核或者udev事件的時間戳來分析事件時序。 --kernel  輸出內核事件 --udev  輸出udev規則執行時的udev事件 --property  輸出事件的屬性 --subsystem-match=string  通過子系統或者設備類型過濾事件。只有匹配了子系統值的udev設備事件通過。 --tag-match=string  通過屬性過濾事件,只有匹配了標簽的udev事件通過。 udevadm test [options] devpath  模擬一個udev事件,打印出debug信息。

[root@shfpdb02 grid]# udevadm info --query=all --name=sda

P: /devices/pci0000:00/0000:00:03.2/0000:03:00.0/host0/target0:1:0/0:1:0:0/block/sda
N: sda
W: 175 S: block/8:0 S: disk/by-id/scsi-3600508e00000000033c0716c8113760c S: disk/by-path/pci-0000:03:00.0-scsi-0:1:0:0 S: disk/by-id/wwn-0x600508e00000000033c0716c8113760c E: UDEV_LOG=3 E: DEVPATH=/devices/pci0000:00/0000:00:03.2/0000:03:00.0/host0/target0:1:0/0:1:0:0/block/sda E: MAJOR=8 E: MINOR=0 E: DEVNAME=/dev/sda E: DEVTYPE=disk E: SUBSYSTEM=block E: MPATH_SBIN_PATH=/sbin E: ID_SCSI=1 E: ID_VENDOR=LSI E: ID_VENDOR_ENC=LSI\x20\x20\x20\x20\x20 E: ID_MODEL=Logical_Volume E: ID_MODEL_ENC=Logical\x20Volume\x20\x20 E: ID_REVISION=3000 E: ID_TYPE=disk E: ID_SERIAL_RAW=3600508e00000000033c0716c8113760c E: ID_SERIAL=3600508e00000000033c0716c8113760c E: ID_SERIAL_SHORT=600508e00000000033c0716c8113760c E: ID_WWN=0x600508e000000000 E: ID_WWN_VENDOR_EXTENSION=0x33c0716c8113760c E: ID_WWN_WITH_EXTENSION=0x600508e00000000033c0716c8113760c E: ID_SCSI_SERIAL=1819394099209064833 E: ID_BUS=scsi E: ID_PATH=pci-0000:03:00.0-scsi-0:1:0:0 E: ID_PART_TABLE_TYPE=dos E: LVM_SBIN_PATH=/sbin E: UDISKS_PRESENTATION_NOPOLICY=0 E: UDISKS_PARTITION_TABLE=1 E: UDISKS_PARTITION_TABLE_SCHEME=mbr E: UDISKS_PARTITION_TABLE_COUNT=2 E: DEVLINKS=/dev/block/8:0 /dev/disk/by-id/scsi-3600508e00000000033c0716c8113760c /dev/disk/by-path/pci-0000:03:00.0-scsi-0:1:0:0 /dev/disk/by-id/wwn-0x600508e00000000033c0716c8113760c

[root@shfpdb02 grid]# udevadm info -a -n /dev/asm-diskaa

Udevadm info starts with the device specified by the devpath and then
walks up the chain of parent devices. It prints for every device found, all possible attributes in the udev rules key format. A rule to match, can be composed by the attributes of the device and the attributes from one single parent device. looking at device '/devices/up_primary/up_adapter/host9/target9:0:0/9:0:0:26/block/sdaa': KERNEL=="sdaa" SUBSYSTEM=="block" DRIVER=="" ATTR{range}=="16" ATTR{ext_range}=="256" ATTR{removable}=="0" ATTR{ro}=="0" ATTR{size}=="2147483648" ATTR{alignment_offset}=="0" ATTR{discard_alignment}=="0" ATTR{capability}=="52" ATTR{stat}=="14119789 0 436708127 3268766 346713 0 7106989 196397 0 3296355 3357899" ATTR{inflight}==" 0 0" looking at parent device '/devices/up_primary/up_adapter/host9/target9:0:0/9:0:0:26': KERNELS=="9:0:0:26" SUBSYSTEMS=="scsi" DRIVERS=="sd" ATTRS{device_blocked}=="0" ATTRS{type}=="0" ATTRS{scsi_level}=="7" ATTRS{vendor}=="up " ATTRS{model}=="updisk " ATTRS{rev}=="4303" ATTRS{state}=="running" ATTRS{timeout}=="30" ATTRS{iocounterbits}=="32" ATTRS{iorequest_cnt}=="0x119" ATTRS{iodone_cnt}=="0x119" ATTRS{ioerr_cnt}=="0x0" ATTRS{modalias}=="scsi:t-0x00" ATTRS{evt_media_change}=="0" ATTRS{dh_state}=="detached" ATTRS{queue_depth}=="30" ATTRS{queue_type}=="none" looking at parent device '/devices/up_primary/up_adapter/host9/target9:0:0': KERNELS=="target9:0:0" SUBSYSTEMS=="scsi" DRIVERS=="" looking at parent device '/devices/up_primary/up_adapter/host9': KERNELS=="host9" SUBSYSTEMS=="scsi" DRIVERS=="" looking at parent device '/devices/up_primary/up_adapter': KERNELS=="up_adapter" SUBSYSTEMS=="up_vbus" DRIVERS=="up_vbus_driver" looking at parent device '/devices/up_primary': KERNELS=="up_primary" SUBSYSTEMS=="" DRIVERS==""

 


fdisk -l | grep sd,lsblk -f | grep sd

 


[root@shfpdb02 grid]# fdisk -l | grep sd Disk /dev/sda: 599.0 GB, 598999040000 bytes /dev/sda1 * 1 64 512000 83 Linux /dev/sda2 64 72825 584446976 8e Linux LVM Disk /dev/sdb: 10.7 GB, 10737418240 bytes Disk /dev/sdc: 10.7 GB, 10737418240 bytes Disk /dev/sdd: 10.7 GB, 10737418240 bytes Disk /dev/sde: 1099.5 GB, 1099511627776 bytes Disk /dev/sdf: 1099.5 GB, 1099511627776 bytes Disk /dev/sdg: 1099.5 GB, 1099511627776 bytes Disk /dev/sdh: 1099.5 GB, 1099511627776 bytes Disk /dev/sdi: 1099.5 GB, 1099511627776 bytes Disk /dev/sdj: 5497.6 GB, 5497558138880 bytes Disk /dev/sdk: 1099.5 GB, 1099511627776 bytes Disk /dev/sdl: 1099.5 GB, 1099511627776 bytes Disk /dev/sdm: 1099.5 GB, 1099511627776 bytes Disk /dev/sdn: 1099.5 GB, 1099511627776 bytes Disk /dev/sdo: 1099.5 GB, 1099511627776 bytes Disk /dev/sdp: 1099.5 GB, 1099511627776 bytes Disk /dev/sdq: 1099.5 GB, 1099511627776 bytes Disk /dev/sdr: 1099.5 GB, 1099511627776 bytes Disk /dev/sds: 1099.5 GB, 1099511627776 bytes Disk /dev/sdt: 1099.5 GB, 1099511627776 bytes Disk /dev/sdu: 1099.5 GB, 1099511627776 bytes Disk /dev/sdv: 1099.5 GB, 1099511627776 bytes Disk /dev/sdw: 1099.5 GB, 1099511627776 bytes Disk /dev/sdx: 1099.5 GB, 1099511627776 bytes Disk /dev/sdy: 1099.5 GB, 1099511627776 bytes Disk /dev/sdz: 1099.5 GB, 1099511627776 bytes Disk /dev/sdaa: 1099.5 GB, 1099511627776 bytes Disk /dev/sdab: 1099.5 GB, 1099511627776 bytes Disk /dev/sdac: 1099.5 GB, 1099511627776 bytes Disk /dev/sdad: 1099.5 GB, 1099511627776 bytes

二、查看asm磁盤
[root@shfpdb02 grid]# ls -lt /dev/asm-disk*
brw-rw---- 1 grid asmadmin  8,  48 Mar 14 19:44 /dev/asm-diskd
brw-rw---- 1 grid asmadmin  8,  16 Mar 14 19:44 /dev/asm-diskb
brw-rw---- 1 grid asmadmin  8,  32 Mar 14 19:44 /dev/asm-diskc
brw-rw---- 1 grid asmadmin 65, 192 Mar 14 19:44 /dev/asm-diskac
brw-rw---- 1 grid asmadmin  8, 240 Mar 14 19:44 /dev/asm-diskp
brw-rw---- 1 grid asmadmin 65, 176 Mar 14 19:44 /dev/asm-diskab
brw-rw---- 1 grid asmadmin  8, 224 Mar 14 19:44 /dev/asm-disko
brw-rw---- 1 grid asmadmin 65,   0 Mar 14 19:43 /dev/asm-diskq
brw-rw---- 1 grid asmadmin 65,  16 Mar 14 19:41 /dev/asm-diskr
brw-rw---- 1 grid asmadmin 65, 160 Mar 14 19:41 /dev/asm-diskaa
brw-rw---- 1 grid asmadmin 65, 208 Mar 14 19:39 /dev/asm-diskad
brw-rw---- 1 grid asmadmin  8, 176 Dec 15 11:19 /dev/asm-diskl
brw-rw---- 1 grid asmadmin  8, 208 Dec 15 11:19 /dev/asm-diskn
brw-rw---- 1 grid asmadmin  8, 192 Dec 15 11:19 /dev/asm-diskm
brw-rw---- 1 grid asmadmin  8, 112 Dec 15 11:17 /dev/asm-diskh
brw-rw---- 1 grid asmadmin  8, 128 Dec 15 10:55 /dev/asm-diski
brw-rw---- 1 grid asmadmin  8,  96 Dec 15 10:55 /dev/asm-diskg
brw-rw---- 1 grid asmadmin 65, 128 Dec 15 10:55 /dev/asm-disky
brw-rw---- 1 grid asmadmin 65, 144 Dec 15 10:55 /dev/asm-diskz
brw-rw---- 1 grid asmadmin  8,  64 Dec 15 10:55 /dev/asm-diske
brw-rw---- 1 grid asmadmin  8,  80 Dec 15 10:55 /dev/asm-diskf
brw-rw---- 1 grid asmadmin 65,  48 Dec 15 10:55 /dev/asm-diskt
brw-rw---- 1 grid asmadmin 65, 112 Dec 15 10:55 /dev/asm-diskx
brw-rw---- 1 grid asmadmin 65,  80 Dec 15 10:55 /dev/asm-diskv
brw-rw---- 1 grid asmadmin 65,  96 Dec 15 10:55 /dev/asm-diskw
brw-rw---- 1 grid asmadmin 65,  32 Dec 15 10:55 /dev/asm-disks
brw-rw---- 1 grid asmadmin 65,  64 Dec 15 10:55 /dev/asm-disku
brw-rw---- 1 grid asmadmin  8, 160 Dec 15 10:55 /dev/asm-diskk

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM