一、創建asm磁盤的幾種方式
創建asm方式很多主要有以下幾種 1、Faking方式 2、裸設備方式 3、udev方式(它下面有兩種方式) 3.1 uuid方式. 3.2 raw方式(裸設備方式) 4、asmlib方式(oracleasm)
二、環境情況采樣
[grid@shdb02 ~]$ cat /etc/redhat-release Red Hat Enterprise Linux Server release 6.4 (Santiago) [grid@shfpdb02 ~]$ uname -r 2.6.32-358.el6.x86_64
三、使用asmca創建磁盤組,四個磁盤組
NAME STATE ------------------------------ ----------- ARCH MOUNTED DATA MOUNTED FRA MOUNTED OCR MOUNTED
四、創建asm磁盤,前提條件是需要准備以下
1、A disk or partition from a storage array //一個磁盤或者是磁盤陣列的分區
2、An entire disk or the partitions of a disk //是一個完整的磁盤或是一個磁盤的分區
3、Logical volumes //一個磁盤的邏輯卷
4、Network-attached files (NAS) //NAS(Network-attached storage,網絡連接存儲)
五、lsblk -f | grep sd ,得到目前創建的磁盤對應關系
[root@shfpdb02 grid]# lsblk -f | grep sd sda ├─sda1 ext4 cf0f3592-a2dc-497c-be07-d4f1e0d42253 /boot └─sda2 LVM2_member nY2JaS-cCZf-qn6E-f4XS-i6Ph-Bf3Y-DxLWF9 sdb oracleasm sdc oracleasm sdd oracleasm sde oracleasm sdf oracleasm sdg oracleasm sdh oracleasm sdi oracleasm sdj sdk oracleasm sdl oracleasm sdm oracleasm sdn oracleasm sdo oracleasm sdp oracleasm sdq oracleasm sdr oracleasm sds oracleasm sdt oracleasm sdu oracleasm sdv oracleasm sdw oracleasm sdx oracleasm sdy oracleasm sdz oracleasm sdaa oracleasm sdab oracleasm sdac oracleasm sdad oracleasm
六、udev方式創建asm磁盤大致創建過程
一、udev方式創建asm磁盤,采用uuid需要添加多塊磁盤。大致流程如下 1、獲取需要綁定為ASM Disk的磁盤uuid 2、新建/etc/udev/rules.d/99-oracle-asmdevices.rules,增加.... 3、重啟start_udev服務 二、/etc/udev/rules.d/99-oracle-asmdevices.rules創建 1、獲取需要綁定為ASM Disk的磁盤uuid,比如我們要使用/dev/asm-diskaa作為ASM磁盤,那么uuid,下面實際文件中有: [grid@shfpdb02 ~]$ /sbin/scsi_id -g -u -d /dev/asm-diskaa 369ce37410023334d07db5f9700000019 2、重啟服務: [root@rac1 ~]# start_udev Starting udev: [ OK ]
我們看下asm磁盤和真正的磁盤分區的對應關系
[root@shfpdb02 src]# ls /dev/asm*
/dev/asm-diskaa /dev/asm-diskb /dev/asm-diskf /dev/asm-diskk /dev/asm-disko /dev/asm-disks /dev/asm-diskw
/dev/asm-diskab /dev/asm-diskc /dev/asm-diskg /dev/asm-diskl /dev/asm-diskp /dev/asm-diskt /dev/asm-diskx
/dev/asm-diskac /dev/asm-diskd /dev/asm-diskh /dev/asm-diskm /dev/asm-diskq /dev/asm-disku /dev/asm-disky
/dev/asm-diskad /dev/asm-diske /dev/asm-diski /dev/asm-diskn /dev/asm-diskr /dev/asm-diskv /dev/asm-diskz
[root@shfpdb02 src]# ls /dev/sd*
/dev/sda /dev/sdaa /dev/sdad /dev/sdd /dev/sdg /dev/sdj /dev/sdm /dev/sdp /dev/sds /dev/sdv /dev/sdy
/dev/sda1 /dev/sdab /dev/sdb /dev/sde /dev/sdh /dev/sdk /dev/sdn /dev/sdq /dev/sdt /dev/sdw /dev/sdz
/dev/sda2 /dev/sdac /dev/sdc /dev/sdf /dev/sdi /dev/sdl /dev/sdo /dev/sdr /dev/sdu /dev/sdx
//磁盤的uuid是唯一的..不管名稱有什么變化.
[root@shfpdb02 src]# /sbin/scsi_id -g -u -d /dev/sdaa 369ce37410023334d07db5f9700000019
[root@shfpdb02 src]# /sbin/scsi_id -g -u -d /dev/asm-diskaa
369ce37410023334d07db5f9700000019
//我們看到他們是一樣的
/etc/init.d/oracleasm createdisk asm-diskaa /dev/sdaa //這樣對應起來的
七、查看創建的磁盤組,查詢可得
SQL> select name,state from v$asm_diskgroup; NAME STATE ------------------------------ ----------- ARCH MOUNTED DATA MOUNTED FRA MOUNTED OCR MOUNTED SQL> set line 9999 SQL> select group_number,disk_number ,path from v$asm_disk; GROUP_NUMBER DISK_NUMBER PATH ------------ ----------- ---------------------------------------------------------------- 0 3 /dev/asm-disky 0 8 /dev/asm-diskz 0 10 /dev/asm-diskx 0 12 /dev/asm-diskw 0 14 /dev/asm-diskv 0 15 /dev/asm-disku 0 16 /dev/asm-diskt 0 18 /dev/asm-disks 2 3 /dev/asm-diskad 2 2 /dev/asm-diskac 1 4 /dev/asm-diski GROUP_NUMBER DISK_NUMBER PATH ------------ ----------- -------------------------------------------------------------------------------------- 2 1 /dev/asm-diskab 2 0 /dev/asm-diskaa 1 1 /dev/asm-diskf 1 2 /dev/asm-diskg 1 0 /dev/asm-diske 4 2 /dev/asm-diskd 2 6 /dev/asm-diskq 2 7 /dev/asm-diskr 4 1 /dev/asm-diskc 2 5 /dev/asm-diskp GROUP_NUMBER DISK_NUMBER PATH ------------ ----------- ------------------------------------------------------------ 3 3 /dev/asm-diskn 3 1 /dev/asm-diskl 3 2 /dev/asm-diskm 3 0 /dev/asm-diskk 4 0 /dev/asm-diskb 28 rows selected.
八、寫入udev .rules ( 99-oracle-asmdevices.rules.) udev方式綁定多路徑
[grid@shfpdb02 ~]$su - grid
[grid@shfpdb02 ~]$ ln -s /lib/libcap.so.2.16 /lib/libcap.so.1
[grid@shfpdb02 ~]$ echo "/sbin/start_udev" >> /etc/rc.local
[grid@shfpdb02 ~]$vi /etc/udev/rules.d/99-oracle-asmdevices.rules
[root@shfpdb02 grid]# cat /etc/udev/rules.d/99-oracle-asmdevices.rules
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d0029d52900000000", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d0029f6d900000001", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002a0ae000000002", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002a473e00000003", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002b566e00000004", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002b6ec600000005", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002ac4a400000006", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d002ad45e00000007", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da033b00000003", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da038500000004", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da03ca00000005", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da03fc00000006", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da045100000007", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" #KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07dc2c4b00000008", NAME="asm-diskj", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da048700000009", NAME="asm-diskk", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da04df0000000a", NAME="asm-diskl", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da05170000000b", NAME="asm-diskm", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da05680000000c", NAME="asm-diskn", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07da05a60000000d", NAME="asm-disko", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db20180000000e", NAME="asm-diskp", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db20500000000f", NAME="asm-diskq", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db209e00000010", NAME="asm-diskr", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db20d700000011", NAME="asm-disks", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db213300000012", NAME="asm-diskt", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5dbf00000013", NAME="asm-disku", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5e2100000014", NAME="asm-diskv", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5e5800000015", NAME="asm-diskw", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5eb200000016", NAME="asm-diskx", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5ef100000017", NAME="asm-disky", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5f5000000018", NAME="asm-diskz", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db5f9700000019", NAME="asm-diskaa", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db60060000001a", NAME="asm-diskab", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db604e0000001b", NAME="asm-diskac", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="369ce37410023334d07db60ae0000001c", NAME="asm-diskad", OWNER="grid", GROUP="asmadmin", MODE="0660"
//重新加載udev規則配置文件
[grid@shfpdb02 ~]$ udevadm control --reload-rules
//start_udev命令可以重新啟動udev服務,udev服務重新讀取配置文件,在/dev/下創建真實設備的設備名稱
[grid@shfpdb02 ~]$ start_udev
// 使規則生效,生成udev設備文件
[grid@shfpdb02 ~]$ udevadm trigger
[grid@shfpdb02 ~]$ reboot
九、udevadm命令來管理udev
udev是Linux內核的設備管理器。它主要的功能是管理/dev目錄底下的設備節點。它同時也是用來接替devfs(設備文件系統)及hotplug(熱拔插)的功能,
這意味着它要在添加/刪除硬件時處理/dev目錄以及所有用戶空間的行為,包括加載firmware時。
udevadm命令是管理udev的一個工具
udevadm可以用來監視和控制udev運行時的行為,請求內核事件,管理事件隊列,以及提供簡單的調試機制
udevadm命令參數選項:
--debug 打印錯誤信息 --version 打印版本信息 --help 幫助文檔 udevadm info options 查詢udev數據庫中的設備信息。也可以從sysfs文件系統中查詢到設備的屬性以輔助創建udev規則。 --query=type 從數據庫中查詢指定類型的設備。需要--path和--name來指定設備。合法的查詢文件是:設備名,鏈接,路徑,屬性 --path=devpath 設備的路徑 --name=file 設備節點或者鏈接 --attribute-walk 打印指定設備的所有sysfs記錄的屬性,以用來udev規則匹配特殊的設備。該選項打印鏈上的所有設備信息,最大可能到sys目錄。 --device-id-of-file=file 打印主/從設備號 --export-db 輸出udev數據庫中的內容 udevadm trigger [options] 接收內核發送來的設備事件。主要用於重放coldplug事件信息 (譯者補充:內核在啟動時已經檢測到了系統的硬件設備,並把硬件設備信息通過sysfs內核虛擬文件系統導出。udev掃描sysfs文件系統,根據硬件設備信息生成熱插拔(hotplug)事件,udev再讀取這些事件,生成對應的硬件設備文件。由於沒有實際的硬件插拔動作,所以這一過程被稱為coldplug。) --verbose 輸出將要被觸發的設備列表。 --dry-run 不真的觸發事件 --type=type 觸發一個特殊的設備。合法的類型:devices,subsystem,failed.默認是devices --action=action 被觸發的事件,默認是change --subsystem-match=subsystem 觸發匹配子系統的設備事件。這個選項可以被多次指定,並且支持shell模式匹配。 --attr-match=attribute=value 觸發匹配sysfs屬性的設備事件。如果屬性值和屬性一起指定,屬性的值可以使用shell模式匹配。如果沒有指定值,會重新確認現有屬性。這個選項可以被多次指定。 --attr-nomatch=attribute=value 不要觸發匹配屬性的設備事件。如果可以使用模式匹配。也可以多次指定 --property-match=property=value 匹配屬性吻合的設備。可以多次指定支持模式匹配 --tag-match=property 匹配標簽吻合的設備。可以多次指定。 --sysname-match=name 匹配sys設備名相同的設備。可以多次指定支持模式匹配。 udevadm settle [options] 查看udev事件隊列,如果所有事件全部處理完就退出。 --timeout=seconds 等待事件隊列空的最大時間。默認是180秒。如果是0則立即退出。 --seq-start=seqnum 只等待到給定的順序號。 --seq-end=seqnum 只等待到給定順序號之前。 --exit-if-exists=file 如果文件存在就退出 --quiet 不輸出任何信息 udevadm monitor [options] 監聽內核事件和udev發送的events事件。打印事件發出的設備。可以通過比較內核或者udev事件的時間戳來分析事件時序。 --kernel 輸出內核事件 --udev 輸出udev規則執行時的udev事件 --property 輸出事件的屬性 --subsystem-match=string 通過子系統或者設備類型過濾事件。只有匹配了子系統值的udev設備事件通過。 --tag-match=string 通過屬性過濾事件,只有匹配了標簽的udev事件通過。 udevadm test [options] devpath 模擬一個udev事件,打印出debug信息。
[root@shfpdb02 grid]# udevadm info --query=all --name=sda
P: /devices/pci0000:00/0000:00:03.2/0000:03:00.0/host0/target0:1:0/0:1:0:0/block/sda
N: sda
W: 175 S: block/8:0 S: disk/by-id/scsi-3600508e00000000033c0716c8113760c S: disk/by-path/pci-0000:03:00.0-scsi-0:1:0:0 S: disk/by-id/wwn-0x600508e00000000033c0716c8113760c E: UDEV_LOG=3 E: DEVPATH=/devices/pci0000:00/0000:00:03.2/0000:03:00.0/host0/target0:1:0/0:1:0:0/block/sda E: MAJOR=8 E: MINOR=0 E: DEVNAME=/dev/sda E: DEVTYPE=disk E: SUBSYSTEM=block E: MPATH_SBIN_PATH=/sbin E: ID_SCSI=1 E: ID_VENDOR=LSI E: ID_VENDOR_ENC=LSI\x20\x20\x20\x20\x20 E: ID_MODEL=Logical_Volume E: ID_MODEL_ENC=Logical\x20Volume\x20\x20 E: ID_REVISION=3000 E: ID_TYPE=disk E: ID_SERIAL_RAW=3600508e00000000033c0716c8113760c E: ID_SERIAL=3600508e00000000033c0716c8113760c E: ID_SERIAL_SHORT=600508e00000000033c0716c8113760c E: ID_WWN=0x600508e000000000 E: ID_WWN_VENDOR_EXTENSION=0x33c0716c8113760c E: ID_WWN_WITH_EXTENSION=0x600508e00000000033c0716c8113760c E: ID_SCSI_SERIAL=1819394099209064833 E: ID_BUS=scsi E: ID_PATH=pci-0000:03:00.0-scsi-0:1:0:0 E: ID_PART_TABLE_TYPE=dos E: LVM_SBIN_PATH=/sbin E: UDISKS_PRESENTATION_NOPOLICY=0 E: UDISKS_PARTITION_TABLE=1 E: UDISKS_PARTITION_TABLE_SCHEME=mbr E: UDISKS_PARTITION_TABLE_COUNT=2 E: DEVLINKS=/dev/block/8:0 /dev/disk/by-id/scsi-3600508e00000000033c0716c8113760c /dev/disk/by-path/pci-0000:03:00.0-scsi-0:1:0:0 /dev/disk/by-id/wwn-0x600508e00000000033c0716c8113760c
[root@shfpdb02 grid]# udevadm info -a -n /dev/asm-diskaa
Udevadm info starts with the device specified by the devpath and then
walks up the chain of parent devices. It prints for every device found, all possible attributes in the udev rules key format. A rule to match, can be composed by the attributes of the device and the attributes from one single parent device. looking at device '/devices/up_primary/up_adapter/host9/target9:0:0/9:0:0:26/block/sdaa': KERNEL=="sdaa" SUBSYSTEM=="block" DRIVER=="" ATTR{range}=="16" ATTR{ext_range}=="256" ATTR{removable}=="0" ATTR{ro}=="0" ATTR{size}=="2147483648" ATTR{alignment_offset}=="0" ATTR{discard_alignment}=="0" ATTR{capability}=="52" ATTR{stat}=="14119789 0 436708127 3268766 346713 0 7106989 196397 0 3296355 3357899" ATTR{inflight}==" 0 0" looking at parent device '/devices/up_primary/up_adapter/host9/target9:0:0/9:0:0:26': KERNELS=="9:0:0:26" SUBSYSTEMS=="scsi" DRIVERS=="sd" ATTRS{device_blocked}=="0" ATTRS{type}=="0" ATTRS{scsi_level}=="7" ATTRS{vendor}=="up " ATTRS{model}=="updisk " ATTRS{rev}=="4303" ATTRS{state}=="running" ATTRS{timeout}=="30" ATTRS{iocounterbits}=="32" ATTRS{iorequest_cnt}=="0x119" ATTRS{iodone_cnt}=="0x119" ATTRS{ioerr_cnt}=="0x0" ATTRS{modalias}=="scsi:t-0x00" ATTRS{evt_media_change}=="0" ATTRS{dh_state}=="detached" ATTRS{queue_depth}=="30" ATTRS{queue_type}=="none" looking at parent device '/devices/up_primary/up_adapter/host9/target9:0:0': KERNELS=="target9:0:0" SUBSYSTEMS=="scsi" DRIVERS=="" looking at parent device '/devices/up_primary/up_adapter/host9': KERNELS=="host9" SUBSYSTEMS=="scsi" DRIVERS=="" looking at parent device '/devices/up_primary/up_adapter': KERNELS=="up_adapter" SUBSYSTEMS=="up_vbus" DRIVERS=="up_vbus_driver" looking at parent device '/devices/up_primary': KERNELS=="up_primary" SUBSYSTEMS=="" DRIVERS==""
fdisk -l | grep sd,lsblk -f | grep sd
[root@shfpdb02 grid]# fdisk -l | grep sd Disk /dev/sda: 599.0 GB, 598999040000 bytes /dev/sda1 * 1 64 512000 83 Linux /dev/sda2 64 72825 584446976 8e Linux LVM Disk /dev/sdb: 10.7 GB, 10737418240 bytes Disk /dev/sdc: 10.7 GB, 10737418240 bytes Disk /dev/sdd: 10.7 GB, 10737418240 bytes Disk /dev/sde: 1099.5 GB, 1099511627776 bytes Disk /dev/sdf: 1099.5 GB, 1099511627776 bytes Disk /dev/sdg: 1099.5 GB, 1099511627776 bytes Disk /dev/sdh: 1099.5 GB, 1099511627776 bytes Disk /dev/sdi: 1099.5 GB, 1099511627776 bytes Disk /dev/sdj: 5497.6 GB, 5497558138880 bytes Disk /dev/sdk: 1099.5 GB, 1099511627776 bytes Disk /dev/sdl: 1099.5 GB, 1099511627776 bytes Disk /dev/sdm: 1099.5 GB, 1099511627776 bytes Disk /dev/sdn: 1099.5 GB, 1099511627776 bytes Disk /dev/sdo: 1099.5 GB, 1099511627776 bytes Disk /dev/sdp: 1099.5 GB, 1099511627776 bytes Disk /dev/sdq: 1099.5 GB, 1099511627776 bytes Disk /dev/sdr: 1099.5 GB, 1099511627776 bytes Disk /dev/sds: 1099.5 GB, 1099511627776 bytes Disk /dev/sdt: 1099.5 GB, 1099511627776 bytes Disk /dev/sdu: 1099.5 GB, 1099511627776 bytes Disk /dev/sdv: 1099.5 GB, 1099511627776 bytes Disk /dev/sdw: 1099.5 GB, 1099511627776 bytes Disk /dev/sdx: 1099.5 GB, 1099511627776 bytes Disk /dev/sdy: 1099.5 GB, 1099511627776 bytes Disk /dev/sdz: 1099.5 GB, 1099511627776 bytes Disk /dev/sdaa: 1099.5 GB, 1099511627776 bytes Disk /dev/sdab: 1099.5 GB, 1099511627776 bytes Disk /dev/sdac: 1099.5 GB, 1099511627776 bytes Disk /dev/sdad: 1099.5 GB, 1099511627776 bytes
二、查看asm磁盤
[root@shfpdb02 grid]# ls -lt /dev/asm-disk* brw-rw---- 1 grid asmadmin 8, 48 Mar 14 19:44 /dev/asm-diskd brw-rw---- 1 grid asmadmin 8, 16 Mar 14 19:44 /dev/asm-diskb brw-rw---- 1 grid asmadmin 8, 32 Mar 14 19:44 /dev/asm-diskc brw-rw---- 1 grid asmadmin 65, 192 Mar 14 19:44 /dev/asm-diskac brw-rw---- 1 grid asmadmin 8, 240 Mar 14 19:44 /dev/asm-diskp brw-rw---- 1 grid asmadmin 65, 176 Mar 14 19:44 /dev/asm-diskab brw-rw---- 1 grid asmadmin 8, 224 Mar 14 19:44 /dev/asm-disko brw-rw---- 1 grid asmadmin 65, 0 Mar 14 19:43 /dev/asm-diskq brw-rw---- 1 grid asmadmin 65, 16 Mar 14 19:41 /dev/asm-diskr brw-rw---- 1 grid asmadmin 65, 160 Mar 14 19:41 /dev/asm-diskaa brw-rw---- 1 grid asmadmin 65, 208 Mar 14 19:39 /dev/asm-diskad brw-rw---- 1 grid asmadmin 8, 176 Dec 15 11:19 /dev/asm-diskl brw-rw---- 1 grid asmadmin 8, 208 Dec 15 11:19 /dev/asm-diskn brw-rw---- 1 grid asmadmin 8, 192 Dec 15 11:19 /dev/asm-diskm brw-rw---- 1 grid asmadmin 8, 112 Dec 15 11:17 /dev/asm-diskh brw-rw---- 1 grid asmadmin 8, 128 Dec 15 10:55 /dev/asm-diski brw-rw---- 1 grid asmadmin 8, 96 Dec 15 10:55 /dev/asm-diskg brw-rw---- 1 grid asmadmin 65, 128 Dec 15 10:55 /dev/asm-disky brw-rw---- 1 grid asmadmin 65, 144 Dec 15 10:55 /dev/asm-diskz brw-rw---- 1 grid asmadmin 8, 64 Dec 15 10:55 /dev/asm-diske brw-rw---- 1 grid asmadmin 8, 80 Dec 15 10:55 /dev/asm-diskf brw-rw---- 1 grid asmadmin 65, 48 Dec 15 10:55 /dev/asm-diskt brw-rw---- 1 grid asmadmin 65, 112 Dec 15 10:55 /dev/asm-diskx brw-rw---- 1 grid asmadmin 65, 80 Dec 15 10:55 /dev/asm-diskv brw-rw---- 1 grid asmadmin 65, 96 Dec 15 10:55 /dev/asm-diskw brw-rw---- 1 grid asmadmin 65, 32 Dec 15 10:55 /dev/asm-disks brw-rw---- 1 grid asmadmin 65, 64 Dec 15 10:55 /dev/asm-disku brw-rw---- 1 grid asmadmin 8, 160 Dec 15 10:55 /dev/asm-diskk
