想必大家在學習ORACLE 11g時,都想搭建一個RAC的實驗環境。在搭建RAC實驗環境時,會碰到諸如IP怎么規划、虛擬機環境下怎么共享磁盤、ASM磁盤創建,以及安裝過程中會遇到這樣那樣的問題。搭建一個完整的RAC實驗環境下來,少則一天,多則一周,浪費不少時間和精力,一遍又一遍重新系統,遇到一個又一個問題,相信初學者,搭建過RAC的同學都會有這樣的體會。
這次把搭建RAC的步驟完整的整理出來,以供大家參考,相互交流學習,文中如有錯誤,歡迎大家斧正。
一、部署環境准備
1、准備所需軟件
VMware workstation
CentOS release 6.10
FreeNAS 11.2
p13390677_112040_Linux-x86-64_1of7.zip
p13390677_112040_Linux-x86-64_2of7.zip
p13390677_112040_Linux-x86-64_3of7.zip
2、創建rac節點服務器
2.1 需要在VMware WorkStation里創建兩台虛擬機:racnode1和racnode2。
VM主機的內存2G(官方說至少1.5G,安裝grid檢查仍會警告不夠用,安裝過程可能出現失敗,建議最少2G)。
硬盤30G。
網絡適配器2個。
2.2 安裝centos6.x虛擬機操作系統。
略
2.3 RAC的ip規划
網卡添加2個, 11.2開始至少需要4種IP地址。 RAC的IP規划如下:
Hostname |
Type |
IP Address |
Interface |
racnode1 |
Public IP |
192.168.153.101 |
eth0 |
racnode1-vip |
Virtual IP |
192.168.153.201 |
eth0:1 |
racnode1-pip |
Private IP |
10.0.0.101 |
eth1 |
racnode2 |
Public IP |
192.168.153.102 |
eth0 |
racnode2-vip |
Virtual IP |
192.168.153.202 |
eth0:1 |
racnode2-pip |
Private IP |
10.0.0.102 |
eth1 |
scan-cluster |
SCAN IP |
192.168.153.100 |
eth0 |
說明:
Oracle RAC環境下每個節點都會有多個IP地址,分別為公共IP(Public IP) 、私有IP(Private IP)和虛擬IP(Virtual IP):
私有IP(Public IP)
Private IP address is used only for internal clustering processing(Cache Fusion).
專用(私有)IP地址只用於內部群集處理,如心跳偵測,服務器間的同步數據用。
虛擬IP(Virtual IP)
Virtual IP is used by database applications to enable fail over when one cluster node fails.
當一個群集節點出現故障時,數據庫應用程序通過虛擬IP地址進行故障切換。
當一個群集節點出現故障時,數據庫應用程序(包括數據庫客戶端)通過虛擬IP地址切換到另一個無故障節點,另一個功能是均衡負載。
公共IP(Public IP)
Public IP adress is the normal IP address typically used by DBA and SA to manage storage, system and database.
公共IP地址
正常的(真實的)IP地址,通常DBA和SA使用公共IP地址在來管理存儲、系統和數據庫。
監聽IP(SCAN IP)
從Oracle 11g R2開始,Oracle RAC網絡對IP地址有特殊要求,新增了加監聽IP地址(SCAN IP),所以從Oracle 11g R2開始Oracle RAC網絡至少需要4種IP地址(前面介紹三種IP地址)。在Oracle 11g R2之前,如果數據庫采用了RAC架構,在客戶端的tnsnames中,需要配置多個節點的連接信息,從而實現諸如負載均衡、Failover等RAC的特性。因此,當數據庫RAC集群需要添加或刪除節點時,需要及時對客戶端機器的tns進行更新,以免出現安全隱患。
在Oracle 11g R2中,為了簡化該項配置工作,引入了SCAN(Single Client Access Name)的特性。該特性的好處在於,在數據庫與客戶端之間,添加了一層虛擬的服務層,就是所謂的SCAN IP以及SCAN IP Listener,在客戶端僅需要配置SCAN IP的tns信息,通過SCAN IP Listener,連接后台集群數據庫。這樣,不論集群數據庫是否有添加或者刪除節點的操作,均不會對Client產生影響。
2.4 配置虛擬機網卡
按前面的IP規划,來設置每個節點的網卡的IP地址。
[root@racnode1 ~]# cd /etc/sysconfig/network-scripts/ ,根據自身網卡進行配置,示例:
racnode1:
1.編輯eth0網卡: #vi ifcfg-eth0 ,內容如下: DEVICE=eth0 TYPE=Ethernet UUID=43b4bc9f-052e-45ec-bca2-dbaeeef39c20 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none HWADDR=00:0C:29:FC:92:1F IPADDR=192.168.153.101 PREFIX=24 GATEWAY=192.168.153.2 DNS1=61.139.2.69 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no NAME="System eth0" |
2.創建eth0:1 #cp ifcfg-eth0 ifcfg-eth0:1 #vi ifcfg-eth0:1,內容如下: DEVICE=eth0:1 TYPE=Ethernet UUID=43b4bc9f-052e-45ec-bca2-dbaeeef39c20 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none HWADDR=00:0C:29:FC:92:1F IPADDR=192.168.153.201 PREFIX=24 GATEWAY=192.168.153.2 DNS1=61.139.2.69 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no NAME="System eth0:1" |
3.編輯eth1網卡: #vi ifcfg-eth1,內容如下: DEVICE=eth1 TYPE=Ethernet BOOTPROTO=none IPADDR=10.0.0.101 PREFIX=24 GATEWAY=10.0.0.1 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no NAME="System eth1" UUID=1655f5de-c00e-454c-aa8f-501bf70fd60c ONBOOT=yes HWADDR=00:0C:29:FC:92:29 |
racnode2:
1.編輯eth0網卡: #vi ifcfg-eth0 ,內容如下: DEVICE=eth0 TYPE=Ethernet UUID=643e30b9-906e-4051-b972-483da6a33203 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none IPADDR=192.168.153.102 PREFIX=24 GATEWAY=192.168.153.2 DNS1=61.139.2.69 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no NAME="System eth0" HWADDR=00:0C:29:C9:A7:2D |
2.創建eth0:1 #cp ifcfg-eth0 ifcfg-eth0:1 #vi ifcfg-eth0:1,內容如下: DEVICE=eth0:1 TYPE=Ethernet UUID=643e30b9-906e-4051-b972-483da6a33203 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none IPADDR=192.168.153.202 PREFIX=24 GATEWAY=192.168.153.2 DNS1=61.139.2.69 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no NAME="System eth0:1" |
3.編輯eth1網卡: #vi ifcfg-eth1,內容如下: DEVICE=eth1 HWADDR=00:0C:29:C9:A7:37 TYPE=Ethernet BOOTPROTO=none IPADDR=10.0.0.102 PREFIX=24 GATEWAY=10.0.0.1 DEFROUTE=yes IPV4_FAILURE_FATAL=yes IPV6INIT=no NAME=eth1 UUID=1207dcc1-7a39-45b0-b604-f38e5c90934d ONBOOT=yes LAST_CONNECT=1546520521 |
2.5編輯/etc/hosts文件
racnode1、racnode2配置一樣
# vim /etc/hosts ,修改內容如下:
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
#racnode1
192.168.153.101 racnode1
192.168.153.201 racnode1-vip
10.0.0.101 racnode1-pip
#racnode2
192.168.153.102 racnode2
192.168.153.202 racnode2-vip
10.0.0.102 racnode2-pip
#scan-ip
192.168.153.100 scan-cluster
[root@localhost ~]# hostname racnode1 ,修改主機名
[root@localhost ~]# hostname racnode2 ,修改主機名
2.6 創建用戶和組
安裝RAC,需要建立相應的用戶和組。在racnode1、racnode2上進行用戶和組的創建:
Group Name |
Group ID |
Group Info |
Oracle User |
Grid User |
oinstall |
1000 |
Inventory Group |
Y |
Y |
dba |
1200 |
OSDBA Group |
Y |
|
oper |
1201 |
OSOPER Group |
Y |
|
asmadmin |
1300 |
OSASM |
Y |
|
asmdba |
1301 |
OSDBA for ASM |
Y |
Y |
asmoper |
1302 |
OSOPER for ASM |
Y |
root 下執行操作:創建組、用戶,並設置用戶密碼
groupadd -g 1000 oinstall
groupadd -g 1200 dba
groupadd -g 1201 oper
groupadd -g 1300 asmadmin
groupadd -g 1301 asmdba
groupadd -g 1302 asmoper
useradd -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grid
useradd -u 1101 -g oinstall -G dba,oper,asmdba oracle
passwd grid
passwd oracle
2.7 創建目錄並授權
在racnode1、racnode2上進行目錄的創建和授權:
root 下執行以下操作:
mkdir -p /u01/app/11.2.0/grid
mkdir -p /u01/app/grid
mkdir /u01/app/oracle
chown -R grid:oinstall /u01
chown oracle:oinstall /u01/app/oracle
chmod -R 775 /u01/
2.8 設置環境變量
(1)配置用戶環境變量:grid用戶
racnode1:
[grid@racnode1 ~]$ vim .bash_profile
export TMP=/tmp
export TMPDIR=$TMP
export ORACLE_SID=+ASM1
export ORACLE_BASE=/u01/app/grid
export ORACLE_HOME=/u01/app/11.2.0/grid
export PATH=/usr/sbin:$PATH
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
umask 022
[grid@racnode1 ~]$ source .bash_profile
racnode2:
[grid@racnode2 ~]$ vim .bash_profile
export TMP=/tmp
export TMPDIR=$TMP
export ORACLE_SID=+ASM2
export ORACLE_BASE=/u01/app/grid
export ORACLE_HOME=/u01/app/11.2.0/grid
export PATH=/usr/sbin:$PATH
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
umask 022
[grid@racnode2 ~]$ source .bash_profile
(2)配置用戶環境變量:oracle用戶
racnode1:
[oracle@racnode1 ~]$ vim .bash_profile
export TMP=/tmp
export TMPDIR=$TMP
export ORACLE_SID=orcl1
export ORACLE_UNQNAME=orcl
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1
export TNS_ADMIN=$ORACLE_HOME/network/admin
export PATH=/usr/sbin:$PATH
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
[oracle@racnode1 ~]$ source .bash_profile
racnode2:
[oracle@racnode2 ~]$ vim .bash_profile
export TMP=/tmp
export TMPDIR=$TMP
export ORACLE_SID=orcl2
export ORACLE_UNQNAME=orcl
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1
export TNS_ADMIN=$ORACLE_HOME/network/admin
export PATH=/usr/sbin:$PATH
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
[oracle@racnode2 ~]$ source .bash_profile
2.9 配置用戶對等性[ssh互信]:grid用戶、oracle用戶
racnode1: ssh-keygen -t rsa #一路回車 ssh-keygen -t dsa #一路回車 |
racnode2: ssh-keygen -t rsa #一路回車 ssh-keygen -t dsa #一路回車 |
先racnode1、再racnode2上執行過上述兩條命令后,再回到racnode1再繼續執行下面的命令: cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys ssh racnode2 cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys ssh racnode2 cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys scp ~/.ssh/authorized_keys racnode2:~/.ssh/authorized_keys chmod 600 .ssh/authorized_keys 兩個節點互相ssh通過一次 ssh racnode1 date ssh racnode2 date ssh racnode1-vip date ssh racnode2-vip date ssh racnode1-pip date ssh racnode2-pip date |
2.10 修改系統參數配置文件
在racnode1和racnode2上都要執行
[root@ ~]# vim /etc/sysctl.conf ,在最后添加以下內容:
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
fs.aio-max-nr = 1048576
fs.file-max = 6815744
kernel.shmall = 2097152
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048586
net.ipv4.tcp_wmem = 262144 262144 262144
net.ipv4.tcp_rmem = 4194304 4194304 4194304
[root@ ~]# sysctl -p 立即生效
-
-
修改 limits.conf
-
[root@ ~]# vim /etc/security/limits.conf ,在最后添加以下內容:
grid soft nproc 2047
grid hard nproc 16384
grid soft nofile 1024
grid hard nofile 65536
oracle soft nproc 2047
oracle hard nproc 16384
oracle soft nofile 1024
oracle hard nofile 65536
-
-
修改 /etc/pam.d/login
[root@ ~]# vim /etc/pam.d/login,在session required pam_namespace.so下面插入:
-
session required pam_limits.so
-
-
停止並刪除ntp服務
[root@ ~]# service ntpd status
[root@ ~]# chkconfig ntpd off
[root@ ~]# cp /etc/ntp.conf /etc/ntp.conf.bak
[root@ ~]# rm -rf /etc/ntp.conf
-
-
-
修改/etc/profile
[root@ ~]# cp /etc/profile /etc/profile.bak
[root@ ~]# vim /etc/profile,在文件最后添加以下內容:
if [ $USER = "ORACLE" ] || [ $USER = "GRID" ];then
if [ $SHELL = "/bin/ksh" ];then
ulimit -p 16384
ulimit -n 65536
else
ulimit -u 16384 -n 65536
fi
umask 022
fi
-
三 、創建FreeNAS共享存儲服務器
本次搭建:在VMware 虛擬機上安裝和配置FreeNAS 11.2,請自行下載所需版本。
【FreeNAS-11.2-RELEASE.iso】
下載地址:https://download.freenas.org/11.2/STABLE/RELEASE/x64/FreeNAS-11.2-RELEASE.iso
3.1准備一台虛擬機,此處詳細步驟略。
3.2 FreeNAS系統安裝
3.2.1 打開虛擬機電源。進入安裝界面,敲擊回車開始安裝。
3.2.2 選擇第一個"Install/Upgrade",點擊OK。
3.2.3 提示內存小於8G。此處作為虛擬測試,可忽略此項錯誤提示。直接點擊Yes。
3.2.4 選擇安裝在哪個磁盤上。此處選擇20G的磁盤作為系統安裝盤。光標上下移動,空格鍵為選擇。然后點擊OK。
3.2.5 此處為警告,告知安裝位置及清空磁盤數據。直接點擊OK。
3.2.6 設置root的密碼。
3.2.7 選擇引導類型。此處選擇 BIOS 類型。
3.2.8 開始安裝。等待一段時間后,即安裝完畢。
3.2.9 安裝完畢后,彈出提示告知安裝完畢。直接點擊OK。
3.2.10 安裝完畢后需要重啟。選擇第三個"Reboot System"。點擊OK。
3.2.11 系統在將重啟后,繼續安裝一些組件。請等待最終安裝完畢。
3.2.12 安裝完畢后,如下圖。參照提示,可根據實際需要去修改配置。
管理地址也已列出。如:http://192.168.153.230
至此,FreeNAS 系統安裝完畢。
3.3 FreeNAS登錄及配置
3.3.1 瀏覽器登錄: 默認用戶為root , 密碼為安裝系統時所設置的密碼。
3.3.2 登錄后如下,根據實際需要進行配置。
3.3.3 根據oracle 11gR2 RAC環境所需的共享存儲,進行配置。
第1步、 配置iscsi服務,打開iscsi並開機勾選自啟動。
第2步、 依次進入菜單: Sharing – Block(ISCSI),設置Target Global Configuration。
Base Name 可自定義,此處默認。其他可不填寫。 點擊SAVE保存。
第3步、 設置 Portals :
點擊ADD添加,填寫IP地址和端口號,然后SAVE保存。
設置后,如下圖。
第4步、設置 Initiators :
點擊ADD添加,Initiators和Authorized Networks 都選擇 ALL ,點擊SAVE保存。
設置后,如下圖。
第5步、 設置 Authorized Access :
點擊ADD添加,此處Group Id、User和Sercret的值可以任意填寫,此處分別設置為1、grid和gridasm ,並點擊SAVE保存。
設置后,如下圖。
第6步、設置 Targets :
Target Name 可隨意填寫,此處為 asm 。選擇 Portal Group ID 、Initiator Group ID ,即是上面所設置的 Group ID。此處為1。其他選項默認即可。 點擊SAVE保存。
設置后,如下圖。
第7步、設置 Extents :
點擊ADD添加,設置Extent name名稱;選擇Extent type,分為磁盤或者分區,此處選擇磁盤。選擇磁盤da1、da2、da3、da4等。 選擇LUN RPM磁盤轉速。其他默認即可。點擊SAVE保存。
依次將所需添加的設備添加完畢后,如下圖所示。
第8步、設置Associated Targets :
點擊ADD添加,選擇Target、選擇Extent,即是上步設置的asm 、crs、data1、data2、fra等。
設置后,如下圖。
二、RAC集群安裝
1、配置共享存儲
1.1 安裝iscsi客戶端
racnode各節點,查看系統是否安裝iscsi軟件包,以centos6.x為例
[root@ ~]# rpm -qa | grep iscsi
iscsi-initiator-utils-6.2.0.873-27.el6_9.x86_64
如未安裝,請執行 yum install -y iscsi-initiator-utils 進行安裝客戶端。
1.2 使用UDEV綁定共享存儲
查找iSCSI設備,發現共享存儲:
[root@ ~]# iscsiadm -m discovery -t sendtargets -p 192.168.153.230
192.168.153.230:3260,1 iqn.2005-10.org.freenas.ctl:asm
1.3 運行fdisk命令可以發現新的設備。分別對應FreeNAS中設置的Disk Extents。
1.4 磁盤分區
# fdisk /dev/sdb
根據提示輸入 n、 p、 w 等
# 同理,重復步驟對 sdc sdd sde 完成分區。
分區完畢后,fdisk -l查看如下:
1.5 安裝UEK核心
UEK可以從http://public-yum.oracle.com/下載安裝:
http://www.rpmfind.net/linux/centos/6.10/updates/x86_64/Packages/kmod-oracleasm-2.0.8-16.el6_10.x86_64.rpm
http://download.oracle.com/otn_software/asmlib/oracleasmlib-2.0.12-1.el6.x86_64.rpm
http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/x86_64/getPackage/oracleasm-support-2.1.11-2.el6.x86_64.rpm
[root@ ~]# yum install kmod-oracleasm
[root@ ~]# rpm -ivh oracleasmlib-2.0.12-1.el6.x86_64.rpm
[root@ ~]# rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm
1.6 創建ASM Disk Volumes
1.6.1 配置並裝載ASM核心模塊,在一個節點操作即可。
[root@racnode1 ~]# oracleasm configure -i ,根據提示輸入:
Configuringthe Oracle ASM library driver.
Thiswill configure the on-boot properties of the Oracle ASM library
driver. The following questions will determinewhether the driver is
loadedon boot and what permissions it will have. The current values
willbe shown in brackets ('[]'). Hitting<ENTER> without typing an
answerwill keep that current value. Ctrl-Cwill abort.
Defaultuser to own the driver interface []: grid
Defaultgroup to own the driver interface []: asmadmin
StartOracle ASM library driver on boot (y/n) [n]: y
Scanfor Oracle ASM disks on boot (y/n) [y]: y
WritingOracle ASM library driver configuration: done
[root@racnode1 ~]# oracleasm init
Creating/dev/oracleasm mount point: /dev/oracleasm
Loadingmodule "oracleasm": oracleasm
MountingASMlib driver filesystem: /dev/oracleasm
1.6.2 創建ASM磁盤
[root@racnode1 ~]# oracleasm createdisk CRSVOL1 /dev/sdb1
Writingdisk header: done
Instantiatingdisk: done
[root@racnode1 ~]# oracleasm createdisk DATAVOL1 /dev/sdc1
Writingdisk header: done
Instantiatingdisk: done
[root@racnode1 ~]# oracleasm createdisk DATAVOL2 /dev/sdd1
Writingdisk header: done
Instantiatingdisk: done
[root@racnode1 ~]# oracleasm createdisk FRAVOL1 /dev/sde1
Writingdisk header: done
Instantiatingdisk: done
[root@racnode1 ~]# oracleasm listdisks
CRSVOL1
DATAVOL1
DATAVOL2
FRAVOL1
使用oracleasm-discover查找ASM磁盤,運行該命令查看是否能找到剛創建的4個磁盤。
[root@racnode1 ~]# oracleasm-discover
UsingASMLib from /opt/oracle/extapi/64/asm/orcl/1/libasm.so
[ASMLibrary - Generic Linux, version 2.0.4 (KABI_V2)]
Discovereddisk: ORCL:CRSVOL1 [2096753 blocks (1073537536 bytes), maxio 512]
Discovereddisk: ORCL:DATAVOL1 [41940960 blocks (21473771520 bytes), maxio 512]
Discovereddisk: ORCL:DATAVOL2 [41940960 blocks (21473771520 bytes), maxio 512]
Discovereddisk: ORCL:FRAVOL1 [62912480 blocks (32211189760 bytes), maxio 512]
使用oracleasm scandisks 掃描asm磁盤
[root@racnode1 ~]# oracleasm scandisks
Reloading disk partitions: done
Cleaning any stale ASM disks...
Scanning system for ASM disks...
2、rac軟件安裝
2.1 安裝oracle所依賴組件
[root@racnode1 ~]# yum -y install binutils compat-libstdc++ elfutils-libelf elfutils-libelf-devel gcc gcc-c++ glibc glibc-common glibc-devel glibc-headers kernel-headers ksh libaio libaio-devel libgcc libgomp libstdc++ libstdc++-devel numactl-devel sysstat unixODBC unixODBC-devel compat-libstdc++* libXp
[root@racnode1 ~]# rpm -ivh pdksh-5.2.14-30.x86_64.rpm (這個包需要下載)
[root@racnode2 ~]# 同上
2.2 安裝前預檢查配置信息
請使用grid用戶 ,racnode1、racnode2都要執行一下這個腳本。
[grid@racnode1 ~]$ cd /opt/grid/ 切換到軟件上傳目錄
[grid@racnode1 grid]$ ./runcluvfy.sh stage -pre crsinst -n racnode1,racnode2 -fixup -verbose
結果如:
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Performing pre-checks for cluster services setup
Checking node reachability...
Check: Node reachability from node "racnode1"
Destination Node Reachable?
------------------------------------ ------------------------
racnode1 yes
racnode2 yes
Result: Node reachability check passed from node "racnode1"
Checking user equivalence...
Check: User equivalence for user "grid"
Node Name Status
------------------------------------ ------------------------
racnode2 passed
racnode1 passed
Result: User equivalence check passed for user "grid"
(中間部分省略粘貼)
(中間部分省略粘貼)
(中間部分省略粘貼)
Checking the file "/etc/resolv.conf" to make sure only one of domain and search entries is defined
File "/etc/resolv.conf" does not have both domain and search entries defined
Checking if domain entry in file "/etc/resolv.conf" is consistent across the nodes...
domain entry in file "/etc/resolv.conf" is consistent across nodes
Checking if search entry in file "/etc/resolv.conf" is consistent across the nodes...
search entry in file "/etc/resolv.conf" is consistent across nodes
Checking DNS response time for an unreachable node
Node Name Status
------------------------------------ ------------------------
racnode2 passed
racnode1 passed
The DNS response time for an unreachable node is within acceptable limit on all nodes
File "/etc/resolv.conf" is consistent across nodes
Check: Time zone consistency
Result: Time zone consistency check passed
Pre-check for cluster services setup was successful.
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
2.3 開始安裝grid軟件
確保兩個節點racnode1、racnode2都已經啟動,然后以grid用戶登錄,開始Oracle Grid Infrastructure安裝 【請在圖形界面下】
[grid@racnode1 ~]$ cd /opt/grid/ 切換到軟件上傳目錄
[grid@racnode1 grid]$ ./runInstaller
第1步:選擇"skip software updates".
第2步:默認即可。選擇"Install and Configure Oracle Grid Infrastructure for a Cluster".
第3步:選擇高級安裝
第4步: 選擇English
第5步:去掉Configure GNS,設置Cluster Name,Scan Name,ScanPort:1521.
注意:將SCAN Name與/etc/hosts文件一致。 我們這里應是: scan-cluster ,Cluster Name可以自定義。
第6步:選擇Add,添加節點
Public Hostname輸入racnod2, Virtual Hostname輸入racnode2-vip
最終結果如下:
驗證ssh等效性
1) 如果前置未設置ssh等效性:選擇ssh connectivty,輸入OS password:grid(grid用戶密
碼),點擊setup,等待即可,成功則下一步。然后點擊"T est".
2) 如果前面已經設置了ssh等效性:可以點擊"T est",或直接下一步
點擊"setup"后
點擊"OK"
點擊"Test"
點擊OK
如果點擊"Next",出現[INS-40912]錯誤:
【這個問題的解答】這是個虛擬IP,當前你應該ping不通。目前你還沒安裝,暫時不會綁到網卡上。
這個應該在RAC安裝完,啟動成功后,才會隨機往兩台機器上的其中一個網卡綁定。
當其中一台機器壞了,自動飄移到另一台。
【解決辦法】ifconfig eth0:1 down 或者 ifdown eth0:1 然后,點擊"Next"
第7步:選擇網卡2:eth1,InterfaceType: Private,點擊"Next"
第8步:默認即可."Oracle Automatic Storage Management(Oracle ASM)"
第9步:創建ASM磁盤組。若未發現磁盤,則點擊change Discovery Path,輸入磁盤所在地址。
第10步:設置密碼,如果密碼設置相對簡單,會彈出提示,直接繼續即可。
第11步—第14步:默認即可.
安裝前檢查,有些警告提示可以忽略。 如有其它錯誤,根據具體錯誤提示進行分析配置。點下一步出現。
第15步: 默認即可,點擊 install 開始安裝。
第16步:安裝進程。
提示執行腳本。
一定要以root帳戶執行,並且不能同時執行。
先執行racnode1 /u01/app/oraInventory/orainstRoot.sh,
再執行racnode2 /u01/app/oraInventory/orainstRoot.sh
然后,先執行racnode1 /u01/app/11.2.0/grid/root.sh
再執行 racnode2 /u01/app/11.2.0/grid/root.sh
第17步:安裝完畢,點擊close。 至此rac軟件安裝完畢。接下來要進行驗證。
2.4 驗證Oracle Grid Infrastructure安裝成功。
以racnode1為例粘貼結果,racnode2執行結果此處不粘貼了。
[root@racnode1 ~]# su - grid
[grid@racnode1 ~]$ crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
檢查Clusterware資源:[grid@racnode1 ~]$ crs_stat -t -v
Name Type R/RA F/FT Target State Host
----------------------------------------------------------------------
ora.CRS.dg ora....up.type 0/5 0/ ONLINE ONLINE racnode1
ora.DATA.dg ora....up.type 0/5 0/ ONLINE ONLINE racnode1
ora.FRA.dg ora....up.type 0/5 0/ ONLINE ONLINE racnode1
ora....ER.lsnr ora....er.type 0/5 0/ ONLINE ONLINE racnode1
ora....N1.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode1
ora.asm ora.asm.type 0/5 0/ ONLINE ONLINE racnode1
ora.cvu ora.cvu.type 0/5 0/0 ONLINE ONLINE racnode2
ora.gsd ora.gsd.type 0/5 0/ OFFLINE OFFLINE
ora....network ora....rk.type 0/5 0/ ONLINE ONLINE racnode1
ora.oc4j ora.oc4j.type 0/1 0/2 ONLINE ONLINE racnode2
ora.ons ora.ons.type 0/3 0/ ONLINE ONLINE racnode1
ora....SM1.asm application 0/5 0/0 ONLINE ONLINE racnode1
ora....C1.lsnr application 0/5 0/0 ONLINE ONLINE racnode1
ora. racnode1.gsd application 0/5 0/0 OFFLINE OFFLINE
ora. racnode1.ons application 0/3 0/0 ONLINE ONLINE racnode1
ora. racnode1.vip ora....t1.type 0/0 0/0 ONLINE ONLINE racnode1
ora....SM2.asm application 0/5 0/0 ONLINE ONLINE racnode2
ora....C2.lsnr application 0/5 0/0 ONLINE ONLINE racnode2
ora. racnode2.gsd application 0/5 0/0 OFFLINE OFFLINE
ora. racnode2.ons application 0/3 0/0 ONLINE ONLINE racnode2
ora. racnode2.vip ora....t1.type 0/0 0/0 ONLINE ONLINE racnode2
ora.scan1.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode1
檢查集群節點
[grid@racnode1 ~]$ olsnodes -n
racnode1 1
racnode2 2
檢查兩個節點上的Oracle TNS監聽器進程:
[grid@racnode1 ~]$ ps -ef|grep lsnr|grep -v 'grep'
grid 94448 1 0 15:04 ? 00:00:00 /u01/app/11.2.0/grid/bin/tnslsnr LISTENER -inherit
grid 94485 1 0 15:04 ? 00:00:00 /u01/app/11.2.0/grid/bin/tnslsnr LISTENER_SCAN1 -inherit
[grid@racnode1 ~]$ ps -ef|grep lsnr|grep -v 'grep'|awk '{print $9}'
LISTENER
LISTENER_SCAN1
確認針對Oracle Clusterware文件的Oracle ASM功能:
[grid@racnode1 ~]$ srvctl status asm -a
ASM is running on racnode1,racnode2
ASM is enabled.
檢查Oracle集群注冊表(OCR):
[grid@racnode1 ~]$ ocrcheck
Status of Oracle Cluster Registry is as follows :
Version : 3
Total space (kbytes) : 262120
Used space (kbytes) : 2624
Available space (kbytes) : 259496
ID : 1555425658
Device/File Name : +CRS
Device/File integrity check succeeded
Device/File not configured
Device/File not configured
Device/File not configured
Device/File not configured
Cluster registry integrity check succeeded
Logical corruption check bypassed due to non-privileged user
檢查表決磁盤:
[grid@racnode1 ~]$ crsctl query css votedisk
## STATE File Universal Id File Name Disk group
-- ----- ----------------- --------- ---------
1. ONLINE 0d90b0c368684ff5bff8f2094823b901 (ORCL:CRSVOL1) [CRS]
Located 1 voting disk(s).
3、oracle軟件安裝
確保兩個節點racnode1、racnode2都已經啟動,然后以oracle用戶登錄,安裝請在圖形界面下
進入軟件安裝包的目錄
[oracle@racnode1 database]$ ./runInstaller
第1步:不勾選I wish to …… ,然后點next。
第2步:選擇跳過軟件更新,點擊next。
第3步: 選擇僅安裝數據庫軟件,點擊next。
第4步: 選擇全部節點,並測試ssh互信。
點擊SSH Connectivity… ,輸入oracle的密碼,點擊test 測試通過如下提示:
點擊OK,然后點擊next。
第5步: 選擇語言
第6步: 選擇安裝的數據庫類型,此處選擇企業版。
第7步: 默認即可
第8步: 默認即可
第9步: 安裝前檢查,此時檢查結果有一條,該條忽略即可。勾選ignore all。點擊next。如有其它報錯,根據實際情況進行排查處理。
第10步: 默認即可,點擊 install 開始安裝
第11步: 安裝過程中需要執行腳本
先在racnode1執行,執行完畢之后,再在racnode2中執行。
4、配置ASM磁盤組
也可以在安裝ORACLE軟件之前創建ASM磁盤組。下面開始創建ASM磁盤組。
命令 asmca 啟動圖形配置 。 點擊Create ,創建磁盤組。
Disk Group Name 命名為DATA;
Redundancy選擇 External (None);;
disks勾選 DATAVOL1、DATAVOL2;
點擊OK,提示創建成功。
同理,創建FRA組。 另外最初安裝grid的時候已經配置過CRS。最終結果如下:
其中,點擊Mount ALL ,掛載所有磁盤。點擊Yes。確認掛載。
5、創建數據庫
第1步: 切換到oracle用戶,以oracle用戶運行命令 dbca 。彈出開始畫面。
選擇Oracle Real Application Cluster(RAC)database,點擊next。
選擇Create a Database,創建一個數據庫。點擊next。
第2步: 選擇General Purpose or Transaction Processing
第3步:選擇Configuration Type:Admin-Managed. Global Database Name:testdb. SID Prefix:testdb.
點擊"Select ALL". 這里一定要選擇全部節點.
第4步: 配置Enterprise Managert 和 Automatic Maintenance Tasks.
第5步:設置密碼。"Use the Same Administrative Password for All Accounts"
提示密碼過於簡單,點擊Yes 。
第6步:在"Databse Area",點擊"Browse",選擇+DATA.
要求設置ASMSNMP密碼
第7步:設置FRA和歸檔。定義快速恢復區(FRA)大小時,一般用整個卷的大小的90%
點擊"Browse",選擇 FRA
第8步:設置Sample Schemas和Custom Scripts.一般不勾選"Sample Schemas"
第9步:設置內存、SGA和PGA、字符集、連接模式。
選擇Typical,SGA and PGA,先用默認的744MB. 后面根據情況也可以調整。
第10步:點擊"Next"
第11步:開始創建數據庫。選擇"Create Database"
創建過程中。
彈出下圖,提示Database creation complete.和相應的提示信息。
點Exit,退出。數據庫創建完成。
RAC安裝到此完成。
三、RAC 基本操作、ASM基本操作及日常查看
很多說法:Oracle 自身bug, 如果啟動失敗 root先執行
/bin/dd if=/var/tmp/.oracle/npohasd of=/dev/null bs=1024 count=1
1、關閉啟動順序
(一)關閉過程(關閉數據庫->CRS集群關閉)
第1步、關閉數據庫:
用oracl用戶執行srvctl命令
語法:srvctl stop database -d dbname [-o immediate]
作用:可以一次性關閉dbname的所有實例
[oracle@racnode1 ~]$ srvctl stop database -d racdb -停止所有節點上的實例
然后查看狀態:
[oracle@racnode1 ~]$ srvctl status database -d racdb
Instance racnode1 is not running on node racnode1
Instance racnode2 is not running on node racnode2
第2步、停止HAS(High Availability Services),必須以root用戶操作
[root@racnode1 oracle]# cd /u01/grid/11.2.0/grid/bin
[root@racnode1 bin]# ./crsctl stop has -f
[root@racnode1 bin]# ./crsctl stop crs -f
本命令只能關閉當前節點的CRS服務,因此需要在RAC的所有節點上執行,啟動也一樣。has與crs等同
第3步、停止節點集群服務,必須以root用戶:
[root@racnode1 oracle]# cd /u01/grid/11.2.0/grid/bin
[root@racnode1 bin]# ./crsctl stop cluster ----停止本節點集群服務
[root@racnode1 bin]# ./crsctl stop cluster -all ---停止所有節點服務
也可以如下控制所停節點:
[root@racnode1 bin]# crsctl stop cluster -n racnode1 racnode2
CRS-2677: Stop of 'ora.cssd' on 'racnode1' succeeded
CRS-2677: Stop of 'ora.cssd' on 'racnode2' succeeded
。。。。。。。。。。。省略日志輸出。。。。。。。。。。。。。。
你如果想一條命令把所有的進程全部停止可以使用上述命令。如果不指定參數的話對當前節點有效,如果指定參數的話對相關參數節點有效。
第4步、檢查集群進程狀態
[root@racnode1 bin]# crsctl check cluster
詳細輸出
[root@racnode1 bin]# crs_stat -t -v
只檢查本節點的集群狀態
[root@racnode1 bin]# crsctl check crs
(二)啟動過程(CRS集群啟動->啟動數據庫)
第1步、啟動HAS
單一節點啟動
[root@racnode2 ~]# crsctl start has
[root@racnode2 ~]# crsctl start crs
[root@racnode2 ~]# crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
所有節點啟動
[root@racnode1 bin]# crsctl start cluster -n racnode1 racnode2
CRS-4123: Oracle High Availability Services has been started.
[root@racnode1 bin]# crsctl start cluster -all
[root@racnode2 ~]# crsctl check cluster
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
此命令會在后台啟動所有RAC CRS相關進程
[root@racnode2 ~]# crs_stat -t -v
CRS-0184: Cannot communicate with the CRS daemon.
因為start has啟動的crs進程比較多因此會啟動的比較慢,我的機器等待了5分鍾,在沒有完全啟動成功之前會報上述錯誤,需要耐心等待一段時間后執行下面命令即可查看到所有CRS相關進程服務已經啟動。
[root@racnode2 ~]# crs_stat -t -v
Name Type R/RA F/FT Target State Host
----------------------------------------------------------------------
ora.DATA.dg ora....up.type 0/5 0/ ONLINE ONLINE racnode1
ora....ER.lsnr ora....er.type 0/5 0/ ONLINE ONLINE racnode1
ora....N1.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode2
ora....N2.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode1
ora....N3.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode1
ora.asm ora.asm.type 0/5 0/ ONLINE ONLINE racnode1
ora.cvu ora.cvu.type 0/5 0/0 ONLINE ONLINE racnode1
ora.gsd ora.gsd.type 0/5 0/ OFFLINE OFFLINE
ora....network ora....rk.type 0/5 0/ ONLINE ONLINE racnode1
ora.oc4j ora.oc4j.type 0/1 0/2 ONLINE ONLINE racnode1
ora.ons ora.ons.type 0/3 0/ ONLINE ONLINE racnode1
ora....SM1.asm application 0/5 0/0 ONLINE ONLINE racnode1
ora....C1.lsnr application 0/5 0/0 ONLINE ONLINE racnode1
ora.racnode1.gsd application 0/5 0/0 OFFLINE OFFLINE
ora.racnode1.ons application 0/3 0/0 ONLINE ONLINE racnode1
ora.racnode1.vip ora....t1.type 0/0 0/0 ONLINE ONLINE racnode1
ora....SM2.asm application 0/5 0/0 ONLINE ONLINE racnode2
ora....C2.lsnr application 0/5 0/0 ONLINE ONLINE racnode2
ora.racnode2.gsd application 0/5 0/0 OFFLINE OFFLINE
ora.racnode2.ons application 0/3 0/0 ONLINE ONLINE racnode2
ora.racnode2.vip ora....t1.type 0/0 0/0 ONLINE ONLINE racnode2
ora....ry.acfs ora....fs.type 0/5 0/ ONLINE ONLINE racnode1
ora.scan1.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode2
ora.scan2.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode1
ora.scan3.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode1
說明:
英文解釋
ora.gsd is OFFLINE by default ifthere is no 9i database in the cluster.
ora.oc4j is OFFLINE in 11.2.0.1 as DatabaseWorkload Management(DBWLM) is unavailable. these can be ignored in11gR2 RAC.
中文解釋
ora.gsd是集群服務中用於與9i數據庫進行通信的一個進程,在當前版本中為了向后兼容才保存下來,狀態為OFFLINE不影響CRS的正常運行與性能,我們忽略即可
ora.oc4j是在11.2.0.2以上版本中有效的服務進程,用於DBWLM的資源管理,因此在11.2.0.1以下版本並沒有使用
第2步、啟動數據庫:
oracl用戶執行srvctl命令:
語法:srvctl start|stop|status database -d dbname [-o immediate]
作用:可以一次性啟動dbname的所有實例
[oracle@racnode1 ~]$ srvctl start database -d racdb -啟動所有節點上的實例
然后查看狀態:
[oracle@racnode1 ~]$ srvctl status database -d racdb
(三)檢查狀態
在root下執行命令,請配置環境變量,可省略完整路徑。
export ORACLE_HOME=/u01/grid/product/11gr2
export PATH=$ORACLE_HOME/bin:$PATH
(1).詳細輸出資源全名稱並檢查狀態
crsctl status resource -t
crsctl status resource
(2).常用srvctl命令
指定dbname上某個實例
srvctl start|stop|status instance -d <dbname> -i <instance_name>
(3).顯示RAC下所有實例配置與狀態
srvctl status|config database -d <dbname>
(4).顯示所有節點的應用服務(VIP,GSD,listener,ONS)
srvctl start|stop|status nodeapps -n<node_name>
(5).ASM進程服務管理
srvctl start|stop|status|config asm -n <nodename>[-i <asm_inst_name>] [-o<oracle_home>]
srvctl config asm -a
srvctl status asm -a
(6).可以獲取所有的環境信息:
srvctl getenv database -d <dbname> [-i<instance_name>]
(7).設置全局環境和變量:
srvctl setenv database -d<dbname> -t LANG=en
(8).在OCR中刪除已有的數據庫信息
srvctl remove database -d <dbname>
(9).向OCR中添加一個數據庫的實例:
srvctl add instance -d <dbname> -i<instance_name> -n <node1>
srvctl add instance -d <dbname> -i<instance_name> -n <node2>
(10).檢查監聽的狀態
srvctl status listener
srvctl config listener -a
(11)SCAN配置信息
srvctl config scan
(12)SCAN listener狀態信息
srvctl status scan
小結:crsctl命令是一個集群級別命令,可以對所有集群資源進行統一啟動、停止等管理操作
srvctl命令是一個服務級別命令,可以對單一服務資源進行統一啟動、停止等管理操作
2、查看數據庫實例、datafile、logfile、controfile、ASM實例
查看數據庫實例
#su - oracle
[oracle@racnode1 ~]$ sqlplus / as sysdba
SQL> select instance_name,status from v$instance;
INSTANCE_NAME STATUS
---------------- ------------
orcl2 OPEN
查看datafile、logfile、controfile
SQL> select TS#,STATUS,NAME from v$datafile;
TS# STATUS NAME
---------- --------------------- ---------------------------------
0 SYSTEM +DATA/testdb/datafile/system.256.911229287
1 ONLINE +DATA/orcl/datafile/sysaux.257.911229291
2 ONLINE +DATA/ orcl /datafile/undotbs1.258.911229293
4 ONLINE +DATA/ orcl /datafile/users.259.911229293
6 ONLINE +DATA/ orcl /datafile/example.264.911229559
5 ONLINE +DATA/ orcl /datafile/undotbs2.265.911230235
查看logfile:
SQL> desc v$logfile;
Name Type Nullable Default Comments
--------------------- ------------- -------- ------- --------
GROUP# NUMBER Y
STATUS VARCHAR2(7) Y
TYPE VARCHAR2(7) Y
MEMBER VARCHAR2(513) Y
IS_RECOVERY_DEST_FILE VARCHAR2(3) Y
SQL> select GROUP#,STATUS,MEMBER from v$logfile;
GROUP# STATUS MEMBER
---------- ------------------------------------------ -------
2 +FRA/orcl/onlinelog/group_2.262.997887279
2 +CRS/orcl/onlinelog/group_2.258.997887279
1 +FRA/orcl/onlinelog/group_1.261.997887277
1 +CRS/orcl/onlinelog/group_1.257.997887277
3 +FRA/orcl/onlinelog/group_3.265.997887443
3 +CRS/orcl/onlinelog/group_3.259.997887443
4 +FRA/orcl/onlinelog/group_4.266.997887443
4 +CRS/orcl/onlinelog/group_4.260.997887445
8 rows selected
查看controlfile:
SQL> desc v$controlfile;
Name Type Nullable Default Comments
--------------------- ------------- -------- ------- --------
STATUS VARCHAR2(7) Y
NAME VARCHAR2(513) Y
IS_RECOVERY_DEST_FILE VARCHAR2(3) Y
BLOCK_SIZE NUMBER Y
FILE_SIZE_BLKS NUMBER Y
SQL> select NAME,STATUS from v$controlfile;
NAME STATUS
------------------------------------------------ -------
+FRA/orcl/controlfile/current.260.997887273
+CRS/orcl/controlfile/current.256.997887273
查看ASM實例
[grid@racnode1 ~]$ sqlplus / as sysasm
SQL> select instance_name,status from v$instance;
INSTANCE_NAME STATUS
---------------- ------------
+ASM1 STARTED
[grid@racnode2 ~]$ sqlplus / as sysasm
SQL> select instance_name,status from v$instance;
INSTANCE_NAME STATUS
---------------- ------------
+ASM2 STARTED
[grid@racnode1 ~]$ sqlplus / as sysasm
查看集群負載情況:
SQL> select inst_id, count(*) from gv$session group by inst_id;
INST_ID COUNT(*)
---------- ----------
1 41
2 39
查看用戶在哪個節點:
SQL> select instance_name from v$instance;
INSTANCE_NAME
----------------
orcl2
查看RAC集群名稱:
[root@racnode1 ~]# /u01/app/11.2.0/grid/bin/cemutlo -n
racnode-cluster
其他:crs 等同 has ["crsctl start crs" = "crsctl start has"]
/u01/app/11.2.0/grid/bin/crsctl start crs -- root啟動集群實例
/u01/app/11.2.0/grid/bin/crsctl stop crs -- root關閉集群實例
srvctl start database -d orcl -- oracle啟動數據庫
srvctl stop database -d orcl -- oracle關閉數據庫
crsctl status resource -t -- root、grid 查看資源狀態
/u01/app/11.2.0/grid/bin/crs_stat -t -v -- oracle10g查看資源命令,11g仍可用。
3、ASM基本操作
asmcmd常用命令格式
[grid@racnode1 ~]$ asmcmd
ASMCMD> help
查看asm磁盤組
[grid@racnode1 ~]$ asmcmd -p
ASMCMD [+] > exit
四、整個安裝過程中,可能常見的問題整理
1、安裝前預檢查配置信息報錯:
如果沒有配置DNS(只在hosts文件里標明),檢測/etc/resolv.conf會失敗的,可以忽略該警告,直接 ignore 即可,不影響安裝,或配置dns服務,重新檢測。
2、安裝grid軟件 SSH互信問題導致無法進行下一步
ssh互信配置
3、安裝grid軟件 [INS-40912]錯誤
忽略即可
4、安裝grid 環境檢查報錯或警告; 如果最后一列中有yes,則選擇Fix & Check Again,運行其中的腳本
這個警告,點擊"more details"查看如下:
選擇Ignore All.
5、執行root.sh報錯
找不到共享庫。
racnode1:
# yum install compat-libcap1*
racnode2:
# yum install compat-libcap1*
然后, racnode1 執行root.sh
然后, racnode2 執行root.sh
6、 INS-20802 Oracle Cluster Verifaction Utility failed。 可以skip。點擊"Skip"
提示:INS-32091,Software Installation was successful.But some configuration assistants failed,were
cancelled or skipped. Are you sure you want to continue?
選擇"Yes"。
7、檢查結果warning."Single Client Access Name(SCAN)。忽略即可。勾選"Ignore All"。
Oracle安裝過程檢查報錯
8、設置ASMSNMP密碼 報錯
解決:以grid用戶給asmsnmp設置密碼。然后再點擊上圖的"Retry"。
待續……