Vmware Workstation實現CentOS6.10_x64 下ORACLE RAC 11.2.0.4的搭建


   想必大家在學習ORACLE 11g時,都想搭建一個RAC的實驗環境。在搭建RAC實驗環境時,會碰到諸如IP怎么規划、虛擬機環境下怎么共享磁盤、ASM磁盤創建,以及安裝過程中會遇到這樣那樣的問題。搭建一個完整的RAC實驗環境下來,少則一天,多則一周,浪費不少時間和精力,一遍又一遍重新系統,遇到一個又一個問題,相信初學者,搭建過RAC的同學都會有這樣的體會。

  這次把搭建RAC的步驟完整的整理出來,以供大家參考,相互交流學習,文中如有錯誤,歡迎大家斧正。

 

一、部署環境准備

1、准備所需軟件

  VMware workstation

  CentOS release 6.10

  FreeNAS 11.2

 p13390677_112040_Linux-x86-64_1of7.zip

 p13390677_112040_Linux-x86-64_2of7.zip

 p13390677_112040_Linux-x86-64_3of7.zip

 

  2、創建rac節點服務器

  2.1 需要在VMware WorkStation里創建兩台虛擬機:racnode1和racnode2。

  VM主機的內存2G(官方說至少1.5G,安裝grid檢查仍會警告不夠用,安裝過程可能出現失敗,建議最少2G)。

  硬盤30G。

  網絡適配器2個。

            

 

  2.2 安裝centos6.x虛擬機操作系統。

        

  2.3 RAC的ip規划

    網卡添加2個, 11.2開始至少需要4種IP地址。 RAC的IP規划如下:

Hostname

Type

IP Address

Interface

racnode1

Public IP

192.168.153.101

eth0

racnode1-vip

Virtual IP

192.168.153.201

eth0:1

racnode1-pip

Private IP

10.0.0.101

eth1

racnode2

Public IP

192.168.153.102

eth0

racnode2-vip

Virtual IP

192.168.153.202

eth0:1

racnode2-pip

Private IP

10.0.0.102

eth1

scan-cluster

SCAN IP

192.168.153.100

eth0

  說明:

  Oracle RAC環境下每個節點都會有多個IP地址,分別為公共IP(Public IP) 、私有IP(Private IP)和虛擬IP(Virtual IP):

  私有IP(Public IP)

  Private IP address is used only for internal clustering processing(Cache Fusion).

  專用(私有)IP地址只用於內部群集處理,如心跳偵測,服務器間的同步數據用。

  虛擬IP(Virtual IP)

  Virtual IP is used by database applications to enable fail over when one cluster node fails.

  當一個群集節點出現故障時,數據庫應用程序通過虛擬IP地址進行故障切換。

  當一個群集節點出現故障時,數據庫應用程序(包括數據庫客戶端)通過虛擬IP地址切換到另一個無故障節點,另一個功能是均衡負載。

  公共IP(Public IP)

  Public IP adress is the normal IP address typically used by DBA and SA to manage storage, system and database.

  公共IP地址

  正常的(真實的)IP地址,通常DBA和SA使用公共IP地址在來管理存儲、系統和數據庫。

  監聽IP(SCAN IP)

從Oracle 11g R2開始,Oracle RAC網絡對IP地址有特殊要求,新增了加監聽IP地址(SCAN IP),所以從Oracle 11g R2開始Oracle RAC網絡至少需要4種IP地址(前面介紹三種IP地址)。在Oracle 11g R2之前,如果數據庫采用了RAC架構,在客戶端的tnsnames中,需要配置多個節點的連接信息,從而實現諸如負載均衡、Failover等RAC的特性。因此,當數據庫RAC集群需要添加或刪除節點時,需要及時對客戶端機器的tns進行更新,以免出現安全隱患。

在Oracle 11g R2中,為了簡化該項配置工作,引入了SCAN(Single Client Access Name)的特性。該特性的好處在於,在數據庫與客戶端之間,添加了一層虛擬的服務層,就是所謂的SCAN IP以及SCAN IP Listener,在客戶端僅需要配置SCAN IP的tns信息,通過SCAN IP Listener,連接后台集群數據庫。這樣,不論集群數據庫是否有添加或者刪除節點的操作,均不會對Client產生影響。

 

2.4 配置虛擬機網卡

    按前面的IP規划,來設置每個節點的網卡的IP地址。

    [root@racnode1 ~]# cd /etc/sysconfig/network-scripts/ ,根據自身網卡進行配置,示例:

    racnode1:

1.編輯eth0網卡:

#vi ifcfg-eth0 ,內容如下:

DEVICE=eth0

TYPE=Ethernet

UUID=43b4bc9f-052e-45ec-bca2-dbaeeef39c20

ONBOOT=yes

NM_CONTROLLED=yes

BOOTPROTO=none

HWADDR=00:0C:29:FC:92:1F

IPADDR=192.168.153.101

PREFIX=24

GATEWAY=192.168.153.2

DNS1=61.139.2.69

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"

2.創建eth0:1

#cp ifcfg-eth0 ifcfg-eth0:1

#vi ifcfg-eth0:1,內容如下:

DEVICE=eth0:1

TYPE=Ethernet

UUID=43b4bc9f-052e-45ec-bca2-dbaeeef39c20

ONBOOT=yes

NM_CONTROLLED=yes

BOOTPROTO=none

HWADDR=00:0C:29:FC:92:1F

IPADDR=192.168.153.201

PREFIX=24

GATEWAY=192.168.153.2

DNS1=61.139.2.69

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0:1"

3.編輯eth1網卡:

#vi ifcfg-eth1,內容如下:

DEVICE=eth1

TYPE=Ethernet

BOOTPROTO=none

IPADDR=10.0.0.101

PREFIX=24

GATEWAY=10.0.0.1

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth1"

UUID=1655f5de-c00e-454c-aa8f-501bf70fd60c

ONBOOT=yes

HWADDR=00:0C:29:FC:92:29

racnode2:

1.編輯eth0網卡:

#vi ifcfg-eth0 ,內容如下:

DEVICE=eth0

TYPE=Ethernet

UUID=643e30b9-906e-4051-b972-483da6a33203

ONBOOT=yes

NM_CONTROLLED=yes

BOOTPROTO=none

IPADDR=192.168.153.102

PREFIX=24

GATEWAY=192.168.153.2

DNS1=61.139.2.69

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"

HWADDR=00:0C:29:C9:A7:2D

2.創建eth0:1

#cp ifcfg-eth0 ifcfg-eth0:1

#vi ifcfg-eth0:1,內容如下:

DEVICE=eth0:1

TYPE=Ethernet

UUID=643e30b9-906e-4051-b972-483da6a33203

ONBOOT=yes

NM_CONTROLLED=yes

BOOTPROTO=none

IPADDR=192.168.153.202

PREFIX=24

GATEWAY=192.168.153.2

DNS1=61.139.2.69

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0:1"

3.編輯eth1網卡:

#vi ifcfg-eth1,內容如下:

DEVICE=eth1

HWADDR=00:0C:29:C9:A7:37

TYPE=Ethernet

BOOTPROTO=none

IPADDR=10.0.0.102

PREFIX=24

GATEWAY=10.0.0.1

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME=eth1

UUID=1207dcc1-7a39-45b0-b604-f38e5c90934d

ONBOOT=yes

LAST_CONNECT=1546520521

  

  2.5編輯/etc/hosts文件

    racnode1、racnode2配置一樣

# vim /etc/hosts ,修改內容如下:

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

#racnode1

192.168.153.101    racnode1

192.168.153.201    racnode1-vip

10.0.0.101    racnode1-pip

#racnode2

192.168.153.102    racnode2

192.168.153.202    racnode2-vip

10.0.0.102    racnode2-pip

#scan-ip

192.168.153.100    scan-cluster

 

  [root@localhost ~]# hostname racnode1 ,修改主機名

  [root@localhost ~]# hostname racnode2 ,修改主機名

  2.6 創建用戶和組

    安裝RAC,需要建立相應的用戶和組。在racnode1、racnode2上進行用戶和組的創建:

Group Name

Group ID

Group Info

Oracle User

Grid User

oinstall

1000

Inventory Group

Y

Y

dba

1200

OSDBA Group

Y

 

oper

1201

OSOPER Group

Y

 

asmadmin

1300

OSASM

 

Y

asmdba

1301

OSDBA for ASM

Y

Y

asmoper

1302

OSOPER for ASM

 

Y

  

  root 下執行操作:創建組、用戶,並設置用戶密碼

groupadd -g 1000 oinstall

groupadd -g 1200 dba

groupadd -g 1201 oper

groupadd -g 1300 asmadmin

groupadd -g 1301 asmdba

groupadd -g 1302 asmoper

useradd -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grid

useradd -u 1101 -g oinstall -G dba,oper,asmdba oracle

passwd grid

passwd oracle

 

  2.7 創建目錄並授權

   在racnode1、racnode2上進行目錄的創建和授權:

  root 下執行以下操作:

mkdir -p /u01/app/11.2.0/grid

mkdir -p /u01/app/grid

mkdir /u01/app/oracle

chown -R grid:oinstall /u01

chown oracle:oinstall /u01/app/oracle

chmod -R 775 /u01/

 

2.8 設置環境變量

    (1)配置用戶環境變量:grid用戶

racnode1

[grid@racnode1 ~]$ vim .bash_profile

export TMP=/tmp

export TMPDIR=$TMP

export ORACLE_SID=+ASM1

export ORACLE_BASE=/u01/app/grid

export ORACLE_HOME=/u01/app/11.2.0/grid

export PATH=/usr/sbin:$PATH

export PATH=$ORACLE_HOME/bin:$PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib

export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

umask 022

[grid@racnode1 ~]$ source .bash_profile

 

racnode2

[grid@racnode2 ~]$ vim .bash_profile

export TMP=/tmp

export TMPDIR=$TMP

export ORACLE_SID=+ASM2

export ORACLE_BASE=/u01/app/grid

export ORACLE_HOME=/u01/app/11.2.0/grid

export PATH=/usr/sbin:$PATH

export PATH=$ORACLE_HOME/bin:$PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib

export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

umask 022

[grid@racnode2 ~]$ source .bash_profile

 

    (2)配置用戶環境變量:oracle用戶

   racnode1

[oracle@racnode1 ~]$ vim .bash_profile

export TMP=/tmp

export TMPDIR=$TMP

export ORACLE_SID=orcl1

export ORACLE_UNQNAME=orcl

export ORACLE_BASE=/u01/app/oracle

export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1

export TNS_ADMIN=$ORACLE_HOME/network/admin

export PATH=/usr/sbin:$PATH

export PATH=$ORACLE_HOME/bin:$PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib

[oracle@racnode1 ~]$ source .bash_profile

 

  racnode2

[oracle@racnode2 ~]$ vim .bash_profile

export TMP=/tmp

export TMPDIR=$TMP

export ORACLE_SID=orcl2

export ORACLE_UNQNAME=orcl

export ORACLE_BASE=/u01/app/oracle

export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1

export TNS_ADMIN=$ORACLE_HOME/network/admin

export PATH=/usr/sbin:$PATH

export PATH=$ORACLE_HOME/bin:$PATH

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib

[oracle@racnode2 ~]$ source .bash_profile

 

2.9 配置用戶對等性[ssh互信]:grid用戶、oracle用戶

racnode1

ssh-keygen -t rsa #一路回車

ssh-keygen -t dsa #一路回車

racnode2

ssh-keygen -t rsa #一路回車

ssh-keygen -t dsa #一路回車

racnode1、再racnode2上執行過上述兩條命令后,再回到racnode1再繼續執行下面的命令:

cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys

ssh racnode2 cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

ssh racnode2 cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys

scp ~/.ssh/authorized_keys racnode2:~/.ssh/authorized_keys

chmod 600 .ssh/authorized_keys

兩個節點互相ssh通過一次

ssh racnode1 date

ssh racnode2 date

ssh racnode1-vip date

ssh racnode2-vip date

ssh racnode1-pip date

ssh racnode2-pip date

 

2.10 修改系統參數配置文件

     在racnode1和racnode2上都要執行

      修改 sysctl.conf,

[root@ ~]# vim /etc/sysctl.conf ,在最后添加以下內容:

kernel.msgmnb = 65536

kernel.msgmax = 65536

kernel.shmmax = 68719476736

kernel.shmall = 4294967296

fs.aio-max-nr = 1048576

fs.file-max = 6815744

kernel.shmall = 2097152

kernel.shmmni = 4096

kernel.sem = 250 32000 100 128

net.ipv4.ip_local_port_range = 9000 65500

net.core.rmem_default = 262144

net.core.rmem_max = 4194304

net.core.wmem_default = 262144

net.core.wmem_max = 1048586

net.ipv4.tcp_wmem = 262144 262144 262144

net.ipv4.tcp_rmem = 4194304 4194304 4194304

        [root@ ~]# sysctl -p 立即生效

 

    1. 修改 limits.conf

    [root@ ~]# vim /etc/security/limits.conf ,在最后添加以下內容:

grid soft nproc 2047

grid hard nproc 16384

grid soft nofile 1024

grid hard nofile 65536

oracle soft nproc 2047

oracle hard nproc 16384

oracle soft nofile 1024

oracle hard nofile 65536

 

    1. 修改 /etc/pam.d/login

      [root@ ~]# vim /etc/pam.d/login,session required pam_namespace.so下面插入:

            session required pam_limits.so

 

    1. 停止並刪除ntp服務

      [root@ ~]# service ntpd status

      [root@ ~]# chkconfig ntpd off

      [root@ ~]# cp /etc/ntp.conf /etc/ntp.conf.bak

      [root@ ~]# rm -rf /etc/ntp.conf

 

    1. 修改/etc/profile

      [root@ ~]# cp /etc/profile /etc/profile.bak

      [root@ ~]# vim /etc/profile,在文件最后添加以下內容:

      if [ $USER = "ORACLE" ] || [ $USER = "GRID" ];then

      if [ $SHELL = "/bin/ksh" ];then

      ulimit -p 16384

      ulimit -n 65536

      else

      ulimit -u 16384 -n 65536

      fi

      umask 022

      fi

 三 、創建FreeNAS共享存儲服務器

 

本次搭建:在VMware 虛擬機上安裝和配置FreeNAS 11.2,請自行下載所需版本。

【FreeNAS-11.2-RELEASE.iso】

下載地址:https://download.freenas.org/11.2/STABLE/RELEASE/x64/FreeNAS-11.2-RELEASE.iso

 

3.1准備一台虛擬機,此處詳細步驟略。

 

3.2 FreeNAS系統安裝

3.2.1 打開虛擬機電源。進入安裝界面,敲擊回車開始安裝。

    3.2.2 選擇第一個"Install/Upgrade",點擊OK。

3.2.3 提示內存小於8G。此處作為虛擬測試,可忽略此項錯誤提示。直接點擊Yes。

    3.2.4 選擇安裝在哪個磁盤上。此處選擇20G的磁盤作為系統安裝盤。光標上下移動,空格鍵為選擇。然后點擊OK。

    3.2.5 此處為警告,告知安裝位置及清空磁盤數據。直接點擊OK。

    3.2.6 設置root的密碼。

    3.2.7 選擇引導類型。此處選擇 BIOS 類型。

    3.2.8 開始安裝。等待一段時間后,即安裝完畢。

    3.2.9 安裝完畢后,彈出提示告知安裝完畢。直接點擊OK。

    3.2.10 安裝完畢后需要重啟。選擇第三個"Reboot System"。點擊OK。

    3.2.11 系統在將重啟后,繼續安裝一些組件。請等待最終安裝完畢。

    

3.2.12 安裝完畢后,如下圖。參照提示,可根據實際需要去修改配置。

管理地址也已列出。如:http://192.168.153.230

至此,FreeNAS 系統安裝完畢。

 

3.3 FreeNAS登錄及配置

3.3.1 瀏覽器登錄: 默認用戶為root , 密碼為安裝系統時所設置的密碼。

3.3.2 登錄后如下,根據實際需要進行配置。

3.3.3 根據oracle 11gR2 RAC環境所需的共享存儲,進行配置。

    第1步、 配置iscsi服務,打開iscsi並開機勾選自啟動。

 

    第2步、 依次進入菜單: Sharing – Block(ISCSI),設置Target Global Configuration。

Base Name 可自定義,此處默認。其他可不填寫。 點擊SAVE保存。

    

第3步、 設置 Portals :

點擊ADD添加,填寫IP地址和端口號,然后SAVE保存。

設置后,如下圖。

 

    第4步、設置 Initiators :

點擊ADD添加,Initiators和Authorized Networks 都選擇 ALL ,點擊SAVE保存。

 

設置后,如下圖。

 

    第5步、 設置 Authorized Access :

        點擊ADD添加,此處Group Id、User和Sercret的值可以任意填寫,此處分別設置為1、grid和gridasm ,並點擊SAVE保存。

 

設置后,如下圖。

 

第6步、設置 Targets :

        Target Name 可隨意填寫,此處為 asm 。選擇 Portal Group ID 、Initiator Group ID ,即是上面所設置的 Group ID。此處為1。其他選項默認即可。 點擊SAVE保存。

 

設置后,如下圖。

 

    第7步、設置 Extents :

        點擊ADD添加,設置Extent name名稱;選擇Extent type,分為磁盤或者分區,此處選擇磁盤。選擇磁盤da1、da2、da3、da4等。 選擇LUN RPM磁盤轉速。其他默認即可。點擊SAVE保存。

 

依次將所需添加的設備添加完畢后,如下圖所示。

    

第8步、設置Associated Targets :

        點擊ADD添加,選擇Target、選擇Extent,即是上步設置的asm 、crs、data1、data2、fra等。

 

 

設置后,如下圖。

 

二、RAC集群安裝

1、配置共享存儲

1.1 安裝iscsi客戶端

racnode各節點,查看系統是否安裝iscsi軟件包,以centos6.x為例

[root@ ~]# rpm -qa | grep iscsi

iscsi-initiator-utils-6.2.0.873-27.el6_9.x86_64

如未安裝,請執行 yum install -y iscsi-initiator-utils 進行安裝客戶端。

1.2 使用UDEV綁定共享存儲

查找iSCSI設備,發現共享存儲:

[root@ ~]# iscsiadm -m discovery -t sendtargets -p 192.168.153.230

192.168.153.230:3260,1 iqn.2005-10.org.freenas.ctl:asm

1.3 運行fdisk命令可以發現新的設備。分別對應FreeNAS中設置的Disk Extents。

1.4 磁盤分區

# fdisk /dev/sdb

根據提示輸入 n p w

# 同理,重復步驟對 sdc sdd sde 完成分區。

分區完畢后,fdisk -l查看如下:

 

1.5 安裝UEK核心

UEK可以從http://public-yum.oracle.com/下載安裝:

http://www.rpmfind.net/linux/centos/6.10/updates/x86_64/Packages/kmod-oracleasm-2.0.8-16.el6_10.x86_64.rpm

http://download.oracle.com/otn_software/asmlib/oracleasmlib-2.0.12-1.el6.x86_64.rpm

http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/x86_64/getPackage/oracleasm-support-2.1.11-2.el6.x86_64.rpm

[root@ ~]# yum install kmod-oracleasm

[root@ ~]# rpm -ivh oracleasmlib-2.0.12-1.el6.x86_64.rpm

[root@ ~]# rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm

 

1.6    創建ASM Disk Volumes

1.6.1 配置並裝載ASM核心模塊,在一個節點操作即可。

[root@racnode1 ~]# oracleasm configure -i ,根據提示輸入:

Configuringthe Oracle ASM library driver.

Thiswill configure the on-boot properties of the Oracle ASM library

driver.  The following questions will determinewhether the driver is

loadedon boot and what permissions it will have. The current values

willbe shown in brackets ('[]').  Hitting<ENTER> without typing an

answerwill keep that current value.  Ctrl-Cwill abort.

Defaultuser to own the driver interface []: grid

Defaultgroup to own the driver interface []: asmadmin

StartOracle ASM library driver on boot (y/n) [n]: y

Scanfor Oracle ASM disks on boot (y/n) [y]: y

WritingOracle ASM library driver configuration: done

 

[root@racnode1 ~]# oracleasm init

    Creating/dev/oracleasm mount point: /dev/oracleasm

Loadingmodule "oracleasm": oracleasm

MountingASMlib driver filesystem: /dev/oracleasm

 

1.6.2 創建ASM磁盤

[root@racnode1 ~]# oracleasm createdisk CRSVOL1 /dev/sdb1

Writingdisk header: done

Instantiatingdisk: done

[root@racnode1 ~]# oracleasm createdisk DATAVOL1 /dev/sdc1

Writingdisk header: done

Instantiatingdisk: done

[root@racnode1 ~]# oracleasm createdisk DATAVOL2 /dev/sdd1

Writingdisk header: done

Instantiatingdisk: done

[root@racnode1 ~]# oracleasm createdisk FRAVOL1 /dev/sde1

Writingdisk header: done

Instantiatingdisk: done

 

[root@racnode1 ~]# oracleasm listdisks

CRSVOL1

DATAVOL1

DATAVOL2

FRAVOL1

 

使用oracleasm-discover查找ASM磁盤,運行該命令查看是否能找到剛創建的4個磁盤。

[root@racnode1 ~]# oracleasm-discover

UsingASMLib from /opt/oracle/extapi/64/asm/orcl/1/libasm.so

[ASMLibrary - Generic Linux, version 2.0.4 (KABI_V2)]

Discovereddisk: ORCL:CRSVOL1 [2096753 blocks (1073537536 bytes), maxio 512]

Discovereddisk: ORCL:DATAVOL1 [41940960 blocks (21473771520 bytes), maxio 512]

Discovereddisk: ORCL:DATAVOL2 [41940960 blocks (21473771520 bytes), maxio 512]

Discovereddisk: ORCL:FRAVOL1 [62912480 blocks (32211189760 bytes), maxio 512]

 

使用oracleasm scandisks 掃描asm磁盤

[root@racnode1 ~]# oracleasm scandisks

Reloading disk partitions: done

Cleaning any stale ASM disks...

Scanning system for ASM disks...

 

2、rac軟件安裝

 

2.1 安裝oracle所依賴組件

[root@racnode1 ~]# yum -y install binutils compat-libstdc++ elfutils-libelf elfutils-libelf-devel gcc gcc-c++ glibc glibc-common glibc-devel glibc-headers kernel-headers ksh libaio libaio-devel libgcc libgomp libstdc++ libstdc++-devel numactl-devel sysstat unixODBC unixODBC-devel compat-libstdc++* libXp

[root@racnode1 ~]# rpm -ivh pdksh-5.2.14-30.x86_64.rpm (這個包需要下載)

[root@racnode2 ~]# 同上

2.2 安裝前預檢查配置信息

請使用grid用戶 ,racnode1、racnode2都要執行一下這個腳本。

[grid@racnode1 ~]$ cd /opt/grid/ 切換到軟件上傳目錄

[grid@racnode1 grid]$ ./runcluvfy.sh stage -pre crsinst -n racnode1,racnode2 -fixup -verbose

結果如:

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Performing pre-checks for cluster services setup

 

Checking node reachability...

 

Check: Node reachability from node "racnode1"

Destination Node Reachable?

------------------------------------ ------------------------

racnode1 yes

racnode2 yes

Result: Node reachability check passed from node "racnode1"

 

 

Checking user equivalence...

 

Check: User equivalence for user "grid"

Node Name Status

------------------------------------ ------------------------

racnode2 passed

racnode1 passed

Result: User equivalence check passed for user "grid"

(中間部分省略粘貼)

(中間部分省略粘貼)

(中間部分省略粘貼)

Checking the file "/etc/resolv.conf" to make sure only one of domain and search entries is defined

File "/etc/resolv.conf" does not have both domain and search entries defined

Checking if domain entry in file "/etc/resolv.conf" is consistent across the nodes...

domain entry in file "/etc/resolv.conf" is consistent across nodes

Checking if search entry in file "/etc/resolv.conf" is consistent across the nodes...

search entry in file "/etc/resolv.conf" is consistent across nodes

Checking DNS response time for an unreachable node

Node Name Status

------------------------------------ ------------------------

racnode2 passed

racnode1 passed

The DNS response time for an unreachable node is within acceptable limit on all nodes

 

File "/etc/resolv.conf" is consistent across nodes

 

Check: Time zone consistency

Result: Time zone consistency check passed

 

Pre-check for cluster services setup was successful.

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

2.3 開始安裝grid軟件

確保兩個節點racnode1、racnode2都已經啟動,然后以grid用戶登錄,開始Oracle Grid Infrastructure安裝 【請在圖形界面下】

[grid@racnode1 ~]$ cd /opt/grid/ 切換到軟件上傳目錄

[grid@racnode1 grid]$ ./runInstaller

第1步:選擇"skip software updates".

第2步:默認即可。選擇"Install and Configure Oracle Grid Infrastructure for a Cluster".

第3步:選擇高級安裝

第4步: 選擇English

第5步:去掉Configure GNS,設置Cluster Name,Scan Name,ScanPort:1521.

注意:將SCAN Name與/etc/hosts文件一致。 我們這里應是: scan-cluster ,Cluster Name可以自定義。

第6步:選擇Add,添加節點

 

Public Hostname輸入racnod2, Virtual Hostname輸入racnode2-vip

 

最終結果如下:

驗證ssh等效性

1) 如果前置未設置ssh等效性:選擇ssh connectivty,輸入OS password:grid(grid用戶密

碼),點擊setup,等待即可,成功則下一步。然后點擊"T est".

2) 如果前面已經設置了ssh等效性:可以點擊"T est",或直接下一步

點擊"setup"后

 

點擊"OK"

 

點擊"Test"

 

點擊OK

如果點擊"Next",出現[INS-40912]錯誤:

【這個問題的解答】這是個虛擬IP,當前你應該ping不通。目前你還沒安裝,暫時不會綁到網卡上。

這個應該在RAC安裝完,啟動成功后,才會隨機往兩台機器上的其中一個網卡綁定。

當其中一台機器壞了,自動飄移到另一台。

【解決辦法】ifconfig eth0:1 down 或者 ifdown eth0:1 然后,點擊"Next"

第7步:選擇網卡2:eth1,InterfaceType: Private,點擊"Next"

第8步:默認即可."Oracle Automatic Storage Management(Oracle ASM)"

第9步:創建ASM磁盤組。若未發現磁盤,則點擊change Discovery Path,輸入磁盤所在地址。

第10步:設置密碼,如果密碼設置相對簡單,會彈出提示,直接繼續即可。

第11步—第14步:默認即可.

 

安裝前檢查,有些警告提示可以忽略。 如有其它錯誤,根據具體錯誤提示進行分析配置。點下一步出現。

第15步: 默認即可,點擊 install 開始安裝。

第16步:安裝進程。

提示執行腳本。

一定要以root帳戶執行,並且不能同時執行。

先執行racnode1     /u01/app/oraInventory/orainstRoot.sh,

再執行racnode2     /u01/app/oraInventory/orainstRoot.sh

然后,先執行racnode1     /u01/app/11.2.0/grid/root.sh

再執行 racnode2     /u01/app/11.2.0/grid/root.sh

第17步:安裝完畢,點擊close。 至此rac軟件安裝完畢。接下來要進行驗證。

 

2.4 驗證Oracle Grid Infrastructure安裝成功。

以racnode1為例粘貼結果,racnode2執行結果此處不粘貼了。

[root@racnode1 ~]# su - grid

[grid@racnode1 ~]$ crsctl check crs

CRS-4638: Oracle High Availability Services is online

CRS-4537: Cluster Ready Services is online

CRS-4529: Cluster Synchronization Services is online

CRS-4533: Event Manager is online

檢查Clusterware資源:[grid@racnode1 ~]$ crs_stat -t -v

Name             Type         R/RA F/FT Target State     Host

----------------------------------------------------------------------

ora.CRS.dg         ora....up.type     0/5 0/ ONLINE ONLINE racnode1

ora.DATA.dg         ora....up.type     0/5 0/ ONLINE ONLINE racnode1

ora.FRA.dg             ora....up.type     0/5 0/ ONLINE ONLINE racnode1

ora....ER.lsnr         ora....er.type     0/5 0/ ONLINE ONLINE racnode1

ora....N1.lsnr         ora....er.type     0/5 0/0 ONLINE ONLINE racnode1

ora.asm             ora.asm.type     0/5 0/ ONLINE ONLINE racnode1

ora.cvu             ora.cvu.type     0/5 0/0 ONLINE ONLINE racnode2

ora.gsd              ora.gsd.type     0/5 0/ OFFLINE OFFLINE

ora....network         ora....rk.type     0/5 0/ ONLINE ONLINE racnode1

ora.oc4j             ora.oc4j.type     0/1 0/2 ONLINE ONLINE racnode2

ora.ons             ora.ons.type         0/3 0/ ONLINE ONLINE racnode1

ora....SM1.asm         application     0/5 0/0 ONLINE ONLINE racnode1

ora....C1.lsnr         application     0/5 0/0 ONLINE ONLINE racnode1

ora. racnode1.gsd        application     0/5 0/0 OFFLINE OFFLINE

ora. racnode1.ons     application     0/3 0/0 ONLINE ONLINE racnode1

ora. racnode1.vip     ora....t1.type     0/0 0/0 ONLINE ONLINE racnode1

ora....SM2.asm         application     0/5 0/0 ONLINE ONLINE racnode2

ora....C2.lsnr         application     0/5 0/0 ONLINE ONLINE racnode2

ora. racnode2.gsd     application     0/5 0/0 OFFLINE OFFLINE

ora. racnode2.ons     application     0/3 0/0 ONLINE ONLINE racnode2

ora. racnode2.vip     ora....t1.type     0/0 0/0 ONLINE ONLINE racnode2

ora.scan1.vip         ora....ip.type     0/0 0/0 ONLINE ONLINE racnode1

 

檢查集群節點

[grid@racnode1 ~]$ olsnodes -n

racnode1 1

racnode2 2

 

檢查兩個節點上的Oracle TNS監聽器進程:

[grid@racnode1 ~]$ ps -ef|grep lsnr|grep -v 'grep'

grid 94448 1 0 15:04 ? 00:00:00 /u01/app/11.2.0/grid/bin/tnslsnr LISTENER -inherit

grid 94485 1 0 15:04 ? 00:00:00 /u01/app/11.2.0/grid/bin/tnslsnr LISTENER_SCAN1 -inherit

 

[grid@racnode1 ~]$ ps -ef|grep lsnr|grep -v 'grep'|awk '{print $9}'

LISTENER

LISTENER_SCAN1

 

確認針對Oracle Clusterware文件的Oracle ASM功能:

[grid@racnode1 ~]$ srvctl status asm -a

ASM is running on racnode1,racnode2

ASM is enabled.

 

檢查Oracle集群注冊表(OCR):

[grid@racnode1 ~]$ ocrcheck

Status of Oracle Cluster Registry is as follows :

     Version : 3

     Total space (kbytes) : 262120

     Used space (kbytes) : 2624

     Available space (kbytes) : 259496

     ID : 1555425658

     Device/File Name : +CRS

Device/File integrity check succeeded

Device/File not configured

Device/File not configured

Device/File not configured

Device/File not configured

     Cluster registry integrity check succeeded

     Logical corruption check bypassed due to non-privileged user

 

檢查表決磁盤:

[grid@racnode1 ~]$ crsctl query css votedisk

## STATE File Universal Id File Name Disk group

-- ----- ----------------- --------- ---------

1. ONLINE 0d90b0c368684ff5bff8f2094823b901 (ORCL:CRSVOL1) [CRS]

Located 1 voting disk(s).

 

3、oracle軟件安裝

確保兩個節點racnode1、racnode2都已經啟動,然后以oracle用戶登錄,安裝請在圖形界面下

進入軟件安裝包的目錄

[oracle@racnode1 database]$ ./runInstaller

第1步:不勾選I wish to …… ,然后點next。

第2步:選擇跳過軟件更新,點擊next。

第3步: 選擇僅安裝數據庫軟件,點擊next。

第4步: 選擇全部節點,並測試ssh互信。

 

點擊SSH Connectivity… ,輸入oracle的密碼,點擊test 測試通過如下提示:

點擊OK,然后點擊next。

 

第5步: 選擇語言

第6步: 選擇安裝的數據庫類型,此處選擇企業版。

第7步: 默認即可

第8步: 默認即可

第9步: 安裝前檢查,此時檢查結果有一條,該條忽略即可。勾選ignore all。點擊next。如有其它報錯,根據實際情況進行排查處理。

第10步: 默認即可,點擊 install 開始安裝

第11步: 安裝過程中需要執行腳本

先在racnode1執行,執行完畢之后,再在racnode2中執行。

 

 

 

4、配置ASM磁盤組

也可以在安裝ORACLE軟件之前創建ASM磁盤組。下面開始創建ASM磁盤組。

命令 asmca 啟動圖形配置 。 點擊Create ,創建磁盤組。

    Disk Group Name 命名為DATA;

Redundancy選擇 External (None);;

disks勾選 DATAVOL1、DATAVOL2;

 

點擊OK,提示創建成功。

同理,創建FRA組。 另外最初安裝grid的時候已經配置過CRS。最終結果如下:

 

其中,點擊Mount ALL ,掛載所有磁盤。點擊Yes。確認掛載。

 

 

5、創建數據庫

第1步: 切換到oracle用戶,以oracle用戶運行命令 dbca 。彈出開始畫面。

 

選擇Oracle Real Application Cluster(RAC)database,點擊next。

 

選擇Create a Database,創建一個數據庫。點擊next。

第2步: 選擇General Purpose or Transaction Processing

第3步:選擇Configuration Type:Admin-Managed. Global Database Name:testdb. SID Prefix:testdb.

點擊"Select ALL". 這里一定要選擇全部節點.

第4步: 配置Enterprise Managert 和 Automatic Maintenance Tasks.

第5步:設置密碼。"Use the Same Administrative Password for All Accounts"

提示密碼過於簡單,點擊Yes 。

第6步:在"Databse Area",點擊"Browse",選擇+DATA.

要求設置ASMSNMP密碼

第7步:設置FRA和歸檔。定義快速恢復區(FRA)大小時,一般用整個卷的大小的90%

點擊"Browse",選擇 FRA

第8步:設置Sample Schemas和Custom Scripts.一般不勾選"Sample Schemas"

第9步:設置內存、SGA和PGA、字符集、連接模式。

選擇Typical,SGA and PGA,先用默認的744MB. 后面根據情況也可以調整。

 

第10步:點擊"Next"

第11步:開始創建數據庫。選擇"Create Database"

創建過程中。

彈出下圖,提示Database creation complete.和相應的提示信息。

 

 

點Exit,退出。數據庫創建完成。

 

RAC安裝到此完成。

 

 

三、RAC 基本操作、ASM基本操作及日常查看

很多說法:Oracle 自身bug, 如果啟動失敗 root先執行

/bin/dd if=/var/tmp/.oracle/npohasd of=/dev/null bs=1024 count=1

1、關閉啟動順序

(一)關閉過程(關閉數據庫->CRS集群關閉)

1步、關閉數據庫:

oracl用戶執行srvctl命令

語法:srvctl stop database -d dbname -o immediate

作用:可以一次性關閉dbname的所有實例

[oracle@racnode1 ~]$ srvctl stop database -d racdb -停止所有節點上的實例

然后查看狀態:

[oracle@racnode1 ~]$ srvctl status database -d racdb

Instance racnode1 is not running on node racnode1

Instance racnode2 is not running on node racnode2

2步、停止HAS(High Availability Services),必須以root用戶操作

[root@racnode1 oracle]# cd /u01/grid/11.2.0/grid/bin

[root@racnode1 bin]# ./crsctl stop has -f

[root@racnode1 bin]# ./crsctl stop crs -f

本命令只能關閉當前節點的CRS服務,因此需要在RAC的所有節點上執行,啟動也一樣。hascrs等同

第3步、停止節點集群服務,必須以root用戶:

[root@racnode1 oracle]# cd /u01/grid/11.2.0/grid/bin

[root@racnode1 bin]# ./crsctl stop cluster ----停止本節點集群服務

[root@racnode1 bin]# ./crsctl stop cluster -all ---停止所有節點服務

也可以如下控制所停節點:

[root@racnode1 bin]# crsctl stop cluster -n racnode1 racnode2

CRS-2677: Stop of 'ora.cssd' on 'racnode1' succeeded

CRS-2677: Stop of 'ora.cssd' on 'racnode2' succeeded

。。。。。。。。。。。省略日志輸出。。。。。。。。。。。。。。

你如果想一條命令把所有的進程全部停止可以使用上述命令。如果不指定參數的話對當前節點有效,如果指定參數的話對相關參數節點有效。

第4步、檢查集群進程狀態

[root@racnode1 bin]# crsctl check cluster

詳細輸出

[root@racnode1 bin]# crs_stat -t -v

只檢查本節點的集群狀態

[root@racnode1 bin]# crsctl check crs

 

(二)啟動過程(CRS集群啟動->啟動數據庫)

第1步、啟動HAS

單一節點啟動

[root@racnode2 ~]# crsctl start has

[root@racnode2 ~]# crsctl start crs

[root@racnode2 ~]# crsctl check crs

CRS-4638: Oracle High Availability Services is online

CRS-4537: Cluster Ready Services is online

CRS-4529: Cluster Synchronization Services is online

CRS-4533: Event Manager is online

所有節點啟動

[root@racnode1 bin]# crsctl start cluster -n racnode1 racnode2

CRS-4123: Oracle High Availability Services has been started.

[root@racnode1 bin]# crsctl start cluster -all

[root@racnode2 ~]# crsctl check cluster

CRS-4537: Cluster Ready Services is online

CRS-4529: Cluster Synchronization Services is online

CRS-4533: Event Manager is online

此命令會在后台啟動所有RAC CRS相關進程

[root@racnode2 ~]# crs_stat -t -v

CRS-0184: Cannot communicate with the CRS daemon.

因為start has啟動的crs進程比較多因此會啟動的比較慢,我的機器等待了5分鍾,在沒有完全啟動成功之前會報上述錯誤,需要耐心等待一段時間后執行下面命令即可查看到所有CRS相關進程服務已經啟動。

[root@racnode2 ~]# crs_stat -t -v

Name Type R/RA F/FT Target State Host

----------------------------------------------------------------------

ora.DATA.dg ora....up.type 0/5 0/ ONLINE ONLINE racnode1

ora....ER.lsnr ora....er.type 0/5 0/ ONLINE ONLINE racnode1

ora....N1.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode2

ora....N2.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode1

ora....N3.lsnr ora....er.type 0/5 0/0 ONLINE ONLINE racnode1

ora.asm ora.asm.type 0/5 0/ ONLINE ONLINE racnode1

ora.cvu ora.cvu.type 0/5 0/0 ONLINE ONLINE racnode1

ora.gsd ora.gsd.type 0/5 0/ OFFLINE OFFLINE

ora....network ora....rk.type 0/5 0/ ONLINE ONLINE racnode1

ora.oc4j ora.oc4j.type 0/1 0/2 ONLINE ONLINE racnode1

ora.ons ora.ons.type 0/3 0/ ONLINE ONLINE racnode1

ora....SM1.asm application 0/5 0/0 ONLINE ONLINE racnode1

ora....C1.lsnr application 0/5 0/0 ONLINE ONLINE racnode1

ora.racnode1.gsd application 0/5 0/0 OFFLINE OFFLINE

ora.racnode1.ons application 0/3 0/0 ONLINE ONLINE racnode1

ora.racnode1.vip ora....t1.type 0/0 0/0 ONLINE ONLINE racnode1

ora....SM2.asm application 0/5 0/0 ONLINE ONLINE racnode2

ora....C2.lsnr application 0/5 0/0 ONLINE ONLINE racnode2

ora.racnode2.gsd application 0/5 0/0 OFFLINE OFFLINE

ora.racnode2.ons application 0/3 0/0 ONLINE ONLINE racnode2

ora.racnode2.vip ora....t1.type 0/0 0/0 ONLINE ONLINE racnode2

ora....ry.acfs ora....fs.type 0/5 0/ ONLINE ONLINE racnode1

ora.scan1.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode2

ora.scan2.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode1

ora.scan3.vip ora....ip.type 0/0 0/0 ONLINE ONLINE racnode1

說明:

英文解釋

ora.gsd is OFFLINE by default ifthere is no 9i database in the cluster.

ora.oc4j is OFFLINE in 11.2.0.1 as DatabaseWorkload Management(DBWLM) is unavailable. these can be ignored in11gR2 RAC.

中文解釋

ora.gsd是集群服務中用於與9i數據庫進行通信的一個進程,在當前版本中為了向后兼容才保存下來,狀態為OFFLINE不影響CRS的正常運行與性能,我們忽略即可

ora.oc4j是在11.2.0.2以上版本中有效的服務進程,用於DBWLM的資源管理,因此在11.2.0.1以下版本並沒有使用

第2步、啟動數據庫:

oracl用戶執行srvctl命令:

語法:srvctl start|stop|status database -d dbname -o immediate

作用:可以一次性啟動dbname的所有實例

[oracle@racnode1 ~]$ srvctl start database -d racdb -啟動所有節點上的實例

然后查看狀態:

[oracle@racnode1 ~]$ srvctl status database -d racdb

(三)檢查狀態

root下執行命令,請配置環境變量,可省略完整路徑。

export ORACLE_HOME=/u01/grid/product/11gr2

export PATH=$ORACLE_HOME/bin:$PATH

(1).詳細輸出資源全名稱並檢查狀態

crsctl status resource -t

crsctl status resource

(2).常用srvctl命令

指定dbname上某個實例

srvctl start|stop|status instance -d <dbname> -i <instance_name>

(3).顯示RAC下所有實例配置與狀態

srvctl status|config database -d <dbname>

(4).顯示所有節點的應用服務(VIP,GSD,listener,ONS)

srvctl start|stop|status nodeapps -n<node_name>

(5).ASM進程服務管理

srvctl start|stop|status|config asm -n <nodename>[-i <asm_inst_name>] [-o<oracle_home>]

srvctl config asm -a

srvctl status asm -a

(6).可以獲取所有的環境信息:

srvctl getenv database -d <dbname> [-i<instance_name>]

(7).設置全局環境和變量:

srvctl setenv database -d<dbname> -t LANG=en

(8).在OCR中刪除已有的數據庫信息

srvctl remove database -d <dbname>

(9).向OCR中添加一個數據庫的實例:

srvctl add instance -d <dbname> -i<instance_name> -n <node1>

srvctl add instance -d <dbname> -i<instance_name> -n <node2>

(10).檢查監聽的狀態

srvctl status listener

srvctl config listener -a

(11)SCAN配置信息

srvctl config scan

(12)SCAN listener狀態信息

srvctl status scan

 

小結:crsctl命令是一個集群級別命令,可以對所有集群資源進行統一啟動、停止等管理操作

srvctl命令是一個服務級別命令,可以對單一服務資源進行統一啟動、停止等管理操作

 

2、查看數據庫實例、datafile、logfile、controfile、ASM實例

查看數據庫實例

#su - oracle

[oracle@racnode1 ~]$ sqlplus / as sysdba

SQL> select instance_name,status from v$instance;

INSTANCE_NAME STATUS

---------------- ------------

orcl2 OPEN

 

查看datafilelogfilecontrofile

SQL> select TS#,STATUS,NAME from v$datafile;

TS# STATUS NAME

---------- --------------------- ---------------------------------

0 SYSTEM +DATA/testdb/datafile/system.256.911229287

1 ONLINE +DATA/orcl/datafile/sysaux.257.911229291

2 ONLINE +DATA/ orcl /datafile/undotbs1.258.911229293

4 ONLINE +DATA/ orcl /datafile/users.259.911229293

6 ONLINE +DATA/ orcl /datafile/example.264.911229559

5 ONLINE +DATA/ orcl /datafile/undotbs2.265.911230235

 

查看logfile:

SQL> desc v$logfile;

Name Type Nullable Default Comments

--------------------- ------------- -------- ------- --------

GROUP# NUMBER Y

STATUS VARCHAR2(7) Y

TYPE VARCHAR2(7) Y

MEMBER VARCHAR2(513) Y

IS_RECOVERY_DEST_FILE VARCHAR2(3) Y

 

SQL> select GROUP#,STATUS,MEMBER from v$logfile;

GROUP#         STATUS                                                 MEMBER

----------         ------------------------------------------ -------

2 +FRA/orcl/onlinelog/group_2.262.997887279

2 +CRS/orcl/onlinelog/group_2.258.997887279

1 +FRA/orcl/onlinelog/group_1.261.997887277

1 +CRS/orcl/onlinelog/group_1.257.997887277

3 +FRA/orcl/onlinelog/group_3.265.997887443

3 +CRS/orcl/onlinelog/group_3.259.997887443

4 +FRA/orcl/onlinelog/group_4.266.997887443

4 +CRS/orcl/onlinelog/group_4.260.997887445

8 rows selected

 

查看controlfile:

SQL> desc v$controlfile;

Name         Type         Nullable Default Comments

--------------------- ------------- -------- ------- --------

STATUS     VARCHAR2(7)     Y

NAME         VARCHAR2(513)     Y

IS_RECOVERY_DEST_FILE     VARCHAR2(3)     Y

BLOCK_SIZE     NUMBER         Y

FILE_SIZE_BLKS     NUMBER         Y

 

SQL> select NAME,STATUS from v$controlfile;

NAME STATUS

------------------------------------------------ -------

+FRA/orcl/controlfile/current.260.997887273

+CRS/orcl/controlfile/current.256.997887273

 

查看ASM實例

[grid@racnode1 ~]$ sqlplus / as sysasm

SQL> select instance_name,status from v$instance;

INSTANCE_NAME     STATUS

---------------- ------------

+ASM1         STARTED

 

[grid@racnode2 ~]$ sqlplus / as sysasm

SQL> select instance_name,status from v$instance;

INSTANCE_NAME     STATUS

---------------- ------------

+ASM2         STARTED

[grid@racnode1 ~]$ sqlplus / as sysasm

查看集群負載情況:    

SQL> select inst_id, count(*) from gv$session group by inst_id;

INST_ID COUNT(*)

---------- ----------

1 41

2 39

 

查看用戶在哪個節點:

SQL> select instance_name from v$instance;

INSTANCE_NAME

----------------

orcl2

 

查看RAC集群名稱:

[root@racnode1 ~]# /u01/app/11.2.0/grid/bin/cemutlo -n

racnode-cluster

 

其他:crs 等同 has ["crsctl start crs" = "crsctl start has"]

/u01/app/11.2.0/grid/bin/crsctl start crs -- root啟動集群實例

/u01/app/11.2.0/grid/bin/crsctl stop crs    -- root關閉集群實例

srvctl start database -d orcl                -- oracle啟動數據庫

srvctl stop database -d orcl                    -- oracle關閉數據庫

crsctl status resource -t                        -- rootgrid 查看資源狀態

/u01/app/11.2.0/grid/bin/crs_stat -t -v     -- oracle10g查看資源命令,11g仍可用。

 

3、ASM基本操作

asmcmd常用命令格式

[grid@racnode1 ~]$ asmcmd

ASMCMD> help

 

查看asm磁盤組

[grid@racnode1 ~]$ asmcmd -p

ASMCMD [+] > exit

 

四、整個安裝過程中,可能常見的問題整理

1、安裝前預檢查配置信息報錯:

 

如果沒有配置DNS(只在hosts文件里標明),檢測/etc/resolv.conf會失敗的,可以忽略該警告,直接 ignore 即可,不影響安裝,或配置dns服務,重新檢測。

 

2、安裝grid軟件 SSH互信問題導致無法進行下一步

ssh互信配置

3、安裝grid軟件 [INS-40912]錯誤

忽略即可

 

4、安裝grid 環境檢查報錯或警告; 如果最后一列中有yes,則選擇Fix & Check Again,運行其中的腳本

這個警告,點擊"more details"查看如下:

選擇Ignore All.

 

5、執行root.sh報錯

 

找不到共享庫。

racnode1:

# yum install compat-libcap1*

racnode2:

# yum install compat-libcap1*

然后, racnode1 執行root.sh

然后, racnode2 執行root.sh

 

6、 INS-20802 Oracle Cluster Verifaction Utility failed。 可以skip。點擊"Skip"

提示:INS-32091,Software Installation was successful.But some configuration assistants failed,were

cancelled or skipped. Are you sure you want to continue?

選擇"Yes"。

 

7、檢查結果warning."Single Client Access Name(SCAN)。忽略即可。勾選"Ignore All"。

Oracle安裝過程檢查報錯

8、設置ASMSNMP密碼 報錯

解決:以grid用戶給asmsnmp設置密碼。然后再點擊上圖的"Retry"。

 

 

待續……

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM