11g Oracle Rac安裝(基於linux6)


安裝 Oracle 11gR2 RAC on Linux 6

本文介紹如何在Oracle Linux 6上安裝2節點Oracle 11gR2 Real Application Cluster(RAC)。

前置條件:

通過安裝Oracle Linux 6來准備所有節點。關於如何安裝linux6在本分區的另外一個頁面有講解。

所有節點上都有私有連接和共享存儲。我有3個磁盤(每個10G大小)用於CRS磁盤組用來存儲OCR和Voting,以及1個磁盤(20G)用於DATA磁盤組來存儲數據庫。

在示例里面,我們有2個公共IP,2個虛IP,2個專有IP和1個 SCAN IP(從公共子網取出),我們將在安裝過程中使用。

本文中,節點名稱如下:

Public

zichuan1.zichuan.com

zichuan2.zichuan.com

Virtual

zichuan1-vip.zichuan.com

zichuan2-vip.zichuan.com

Private

zichuan1-priv.zichuan.com

zichuan2.priv.zichuan.com

SCAN

zichuan-scan.zichuan.com

   

SCAN配置的推薦方法是具有通過DNS解析的3個IP地址。 由於我的環境里面沒有DNS服務,我配置主機文件中的配置項進行SCAN配置,最后則使用單個SCAN IP地址。

   

下載並解壓縮軟件:

下載11g Grid 軟件。

在本次操作中,我把軟件壓縮包提取到了/u02/11.2.0/目錄下。

   

現在我們開始安裝。以下便是在Linux上安裝Oracle 11g RAC的步驟:

   

1)在每個節點上編輯 /etc/selinux/config ,將SELINUX的值設置為"permissive"或"disabled":

SELINUX=permissive

   

   

2)在每個節點上,配置共享內存文件系統。在共享內存文件系統的 /etc/fstab 文件中添加以下行。根據您將要用於SGA的內存量修改"size"的值。

tmpfs /dev/shm tmpfs rw,exec,size=8g 0 0

   

3)在每個節點上,禁用防火牆。

[root@zichuan1 ~]# service iptables stop

[root@zichuan1 ~]# chkconfig iptables off

[root@zichuan1 ~]# service ip6tables stop

[root@zichuan1 ~]# chkconfig ip6tables off

[root@zichuan1 ~]# setenforce 0

[root@zichuan1 ~]# getenforce

   

4)重啟每個節點

   

5)在每個節點的 /etc/host 文件中,添加RAC的每個節點的IP地址和完全限定名稱,包括公共IP; 虛擬IP; 私有IP和SCAN IP。

#Public

10.158.172.78 zichuan1.zichuan.com zichuan1

10.158.172.79 zichuan2.zichuan.com zichuan2

#Virtual

10.158.172.101 zichuan1-vip.zichuan.com zichuan1-vip

10.158.172.102 zichuan2-vip.zichuan.com zichuan2-vip

#Private

10.10.10.10 zichuan1-priv.zichuan.com zichuan1-priv

10.10.10.11 zichuan2-priv.zichuan.com zichuan2-priv

#SCAN

10.158.172.120 zichuan-scan.zichuan.com zichuan-scan

確保每個節點的公共接口和專用接口具有相同的名稱,並且在所有節點上在ifconfig命令下,以相同的順序列出,(我的公共接口名稱為eth0,專用接口名稱為eth1)。

注:如果沒有特殊需求,測試環境可以用共享網段的IP作為私有網,不影響使用。

   

6)測試保證每個節點到另一個節點的ping命令可以連通。

節點zichuan1

[root@zichuan1 ~]# ping zichuan1

[root@zichuan1 ~]# ping zichuan1-priv

[root@zichuan1 ~]# ping zichuan2

[root@zichuan1 ~]# ping zichuan2-priv

節點zichuan2

[root@zichuan2 ~]# ping zichuan2

[root@zichuan2 ~]# ping zichuan2-priv

[root@zichuan2 ~]# ping zichuan1

[root@zichuan2 ~]# ping zichuan1-priv

   

7)我們可以使用"yum"命令執行節點的自動配置。

自動配置將執行以下任務:

安裝所需的RPM包

在/etc/sysctl.conf文件中設置內核參數

創建OS組(oinstall,dba)和OS用戶(oracle)

為安裝用戶"oracle" 設置限制

   

每個節點上,執行以下命令以自動執行所有預設置:

[root@zichuan1 ~]# yum install oracle-rdbms-server-11gR2-preinstall -y

   

如果計划通過創建"grid"用戶安裝和管理grid以實現角色分離,並為數據庫軟件使用"oracle"用戶,您將需要手動創建更多的OS組和"grid"用戶,如下所示(在每個節點上):

增加組

[root@zichuan1 ~]# groupadd -g 54323 oper

[root@zichuan1 ~]# groupadd -g 54325 asmdba

[root@zichuan1 ~]# groupadd -g 54328 asmadmin

[root@zichuan1 ~]# groupadd -g 54329 asmoper

增加用戶

[root@zichuan1 ~]# useradd -u 54322 -g oinstall -G dba,asmdba,asmadmin,asmoper grid

為用戶設置密碼(oracle 和 grid)

[root@zichuan1 ~]# passwd oracle

[root@zichuan1 ~]# passwd grid

將oracle 用戶加入oper 和 asmdba 組

[root@zichuan1 ~]# usermod -g oinstall -G dba,oper,asmdba oracle

   

如果您為grid安裝創建了用戶"grid",則還需要為grid用戶手動設置這些限制。 您可以在 /etc/security/limits.d 目錄下創建一個單獨的 oracle-rdbms-server-11gR2-preinstall.conf 文件:

grid soft nofile 1024

grid hard nofile 65536

grid soft nproc 16384

grid hard nproc 16384

grid soft stack 10240

grid hard stack 32768

grid hard memlock 134217728

grid soft memlock 134217728

   

8)在每個節點上,安裝 oracleasm-support 和 oracleasmlib,然后配置 oracleasm 。

從yum源或Linux本地包安裝oracleasm,然后從以下URL下載oracleasmlib包,然后安裝。

http://www.oracle.com/technetwork/server-storage/linux/asmlib/ol7-2352094.html

安裝oracleasmlib和oracleasm-support:

[root@zichuan1 ~]# yum install oracleasm-support

[root@zichuan1 ~]# rpm -ivh oracleasmlib-2.0.12-1.el7.x86_64.rpm

配置 oracleasm(高亮顯示為配置中的輸入)

[root@zichuan1 ~]# /etc/init.d/oracleasm configure

Configuring the Oracle ASM library driver.

   

This will configure the on-boot properties of the Oracle ASM library

driver. The following questions will determine whether the driver is

loaded on boot and what permissions it will have. The current values

will be shown in brackets ('[]'). Hitting <ENTER> without typing an

answer will keep that current value. Ctrl-C will abort.

   

Default user to own the driver interface []: grid

Default group to own the driver interface []: asmadmin

Start Oracle ASM library driver on boot (y/n) [n]: y

Scan for Oracle ASM disks on boot (y/n) [y]: y

Writing Oracle ASM library driver configuration: done

Initializing the Oracle ASMLib driver: [ OK ]

Scanning the system for Oracle ASMLib disks: [ OK ]

   

檢查配置

[root@zichuan1 ~]# /usr/sbin/oracleasm configure

ORACLEASM_UID=grid

ORACLEASM_GID=asmadmin

ORACLEASM_SCANBOOT=true

ORACLEASM_SCANORDER=""

ORACLEASM_SCANEXCLUDE=""

ORACLEASM_USE_LOGICAL_BLOCK_SIZE="false"

   

9)在每個節點上,如果不存在,請在 /etc/pam.d/login 文件中添加以下內容:

session required /lib64/security/pam_limits.so

session required pam_limits.so

   

10)在每個節點上,停止並禁用NTP, 在安裝過程中, 將安裝並使用群集時間同步服務。

[root@zichuan1 ~]# /sbin/service ntpd stop

[root@zichuan1 ~]# chkconfig ntpd off

[root@zichuan1 ~]# mv /etc/ntp.conf /etc/ntp.conf.org

[root@zichuan1 ~]# rm /var/run/ntpd.pid

   

11)在每個節點上,確保 /etc/resolv.conf 文件包含以下內容。將您的域名替換為 zichuan.com。

search zichuan.com

   

12)在每個節點,安裝cvuqdisk RPM。

這對於 cluvfy (群集驗證實用程序)的正常工作用以發現共享磁盤是必需的,否則將在運行 cluvfy 時報告錯誤。以 root 身份登錄,並執行以下步驟:

設置環境變量 CVUQDISK_GRP 並指向擁有 cvuqdisk 的 oinstall 組

[root@zichuan1 ~]# export CVUQDISK_GRP=oinstall

解壓的 gird 軟件下找到 cvuqdisk 包,並安裝 cvuqdisk

[root@zichuan1 ~]# cd /u02/11.2.0/grid/rpm

[root@zichuan1 ~]# rpm -ivh cvuqdisk-1.0.9-1.rpm

   

13)在每個節點,創建目錄並更改相應的用戶的權限(grid 和 oracle)。

[root@zichuan1 ~]# mkdir -p /u01/app/11.2.0/grid

[root@zichuan1 ~]# mkdir -p /u01/app/grid

[root@zichuan1 ~]# mkdir -p /u01/app/oracle

[root@zichuan1 ~]# chown -R grid:oinstall /u01

[root@zichuan1 ~]# chown oracle:oinstall /u01/app/oracle

[root@zichuan1 ~]# chmod -R 775 /u01/

   

14)從任一節點,分出一個共享磁盤。如最初所描述的,我共有4個磁盤,3個用於OCR和Voting磁盤,1個用於DATA磁盤組。高亮顯示的磁盤是我將使用此磁盤創建分區,然后使用oracleasm創建ASM磁盤。        

[root@zichuan1 ~]# ls -l /dev/vd*

brw-rw----. 1 root disk 8, 0 Apr 7 11:38 /dev/vda

brw-rw----. 1 root disk 8, 1 Apr 7 11:38 /dev/vda1

brw-rw----. 1 root disk 8, 2 Apr 7 11:38 /dev/vda2

brw-rw----. 1 root disk 8, 16 Apr 7 11:38 /dev/vdb

brw-rw----. 1 root disk 8, 32 Apr 7 11:38 /dev/vdc

brw-rw----. 1 root disk 8, 48 Apr 7 11:38 /dev/vdd

brw-rw----. 1 root disk 8, 64 Apr 7 11:38 /dev/vde

   

使用以下步驟來為每個磁盤(/dev/sdc, /dev/sdd, /dev/sde, /dev/sdf)分區。

為了簡單起見,在為每個磁盤執行命令fdisk后,按下列順序鍵 n,p,1,<enter>,<enter>,w為每個磁盤創建新的分區。

[root@zichuan1 ~]# fdisk /dev/vdb

Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.

Be careful before using the write command.

   

Device does not contain a recognized partition table

Building a new DOS disklabel with disk identifier 0x457c3565.

   

Command (m for help): n

Partition type:

p primary (0 primary, 0 extended, 4 free)

e extended

Select (default p): p

Partition number (1-4, default 1): 1

First sector (2048-25165823, default 2048):

Using default value 2048

Last sector, +sectors or +size{K,M,G} (2048-25165823, default 25165823):

Using default value 25165823

Partition 1 of type Linux and of size 12 GiB is set

   

Command (m for help): w

The partition table has been altered!

   

Calling ioctl() to re-read partition table.

Syncing disks.

  

   

分區完成后,以下是我的分區磁盤:

[root@zichuan1 ~]# ls -l /dev/vd*

brw-rw----. 1 root disk 8, 80 Apr 7 12:08 /dev/vdb

brw-rw----. 1 root disk 8, 81 Apr 7 12:08 /dev/vdb1

brw-rw----. 1 root disk 8, 32 Apr 7 12:04 /dev/vdc

brw-rw----. 1 root disk 8, 33 Apr 7 12:04 /dev/vdc1

brw-rw----. 1 root disk 8, 48 Apr 7 12:08 /dev/vdd

brw-rw----. 1 root disk 8, 49 Apr 7 12:08 /dev/vdd1

brw-rw----. 1 root disk 8, 64 Apr 7 12:08 /dev/vde

brw-rw----. 1 root disk 8, 65 Apr 7 12:08 /dev/vde1

   

15)從任一節點,使用oracleasm命令創建ASM磁盤。

[root@zichuan1 ~]# oracleasm createdisk crs1 /dev/vdb1

Writing disk header: done

Instantiating disk: done

[root@zichuan1 ~]# oracleasm createdisk crs2 /dev/vdc1

Writing disk header: done

Instantiating disk: done

[root@zichuan1 ~]# oracleasm createdisk crs3 /dev/vdd1

Writing disk header: done

Instantiating disk: done

[root@zichuan1 ~]# oracleasm createdisk data /dev/vde1

Writing disk header: done

Instantiating disk: done

[root@zichuan1 sys]# oracleasm scandisks

Reloading disk partitions: done

Cleaning any stale ASM disks...

Scanning system for ASM disks...

[root@zichuan1 sys]# oracleasm listdisks

CRS1

CRS2

CRS3

DATA

   

在所有其他節點上執行"oracleasm scandisks" 和"oracleasm listdisks"命令也可以看到所有的ASM磁盤。

從其他節點,以root用戶身份執行以下命令:

[root@zichuan2 ~]# oracleasm scandisks

Reloading disk partitions: done

Cleaning any stale ASM disks...

Scanning system for ASM disks...

[root@zichuan2 ~]# oracleasm listdisks

CRS1

CRS2

CRS3

DATA

   

16)在每個節點上,為ASM磁盤添加IO調度程序。修改高亮顯示的磁盤名稱以匹配您的環境。

[root@zichuan1 ~]# echo deadline > /sys/block/vdb/queue/scheduler

[root@zichuan1 ~]# echo deadline > /sys/block/vdc/queue/scheduler

[root@zichuan1 ~]# echo deadline > /sys/block/vdd/queue/scheduler

[root@zichuan1 ~]# echo deadline > /sys/block/vde/queue/scheduler

   

17)在每個節點上,在兩個用戶,"grid" 和"oracle" 的 /home/<username>/.bash_profile 文件中添加以下內容。在這個步驟,我們不需要設置其他環境變量,即ORACLE_BASE 或 ORACLE_HOME。

umask 022

   

18)選擇要啟動安裝的節點( 任一節點 ),以"grid"用戶身份登錄桌面系統。

   

   

19)從提取的軟件目錄(/u02/11.2.0/grid),執行"./runInstaller"開始安裝。

   

20)開始安裝

   

   

   

選擇"Advance Installation",然后單擊下一步

   

   

如果需要,更改集群名稱和SCAN名稱和SCAN端口。確保SCAN名稱與/ etc / host文件中指定的相同。取消選中"Configure GNS"。點擊下一步

   

您將只看到第一個節點(您啟動安裝的位置)。單擊添加以打開一個窗口以提供第二個節點的詳細信息。您需要通過單擊 add 按鈕添加 RAC 環境中每個節點的詳細信息。

單擊SSH Connectivity。如果您已經通過SSH配置無密碼登錄到遠程節點,則應該跳過下一個設置。

   

點擊SSH連接后,您將看到文本框提供用戶名(grid)和密碼來設置SSH連接。提供密碼並點擊設置按鈕。配置SSH需要幾秒鍾的時間。

   

   

為公共網絡和專有網絡選擇正確的網絡接口,然后單擊下一步

   

   

   

提供磁盤組名稱。由於將 OCR 和 Voting 磁盤存儲在這個磁盤組上,所以需要提供CRS。選擇"External"。應使用正常(至少需要2個磁盤)或高冗余(至少需要3個磁盤)來防止磁盤故障。選擇ASM磁盤作為此磁盤組的一部分。

   

為用戶SYS(SYSASM )提供密碼,然后單擊下一步

   

   

   

如果需要,根據上一步創建的目錄修改路徑。或者您可以繼續使用默認位置。點擊下一步

   

   

如果您看到任何先決條件檢查失敗/警告,請在單擊下一步之前進行修復。在我的情況下,我忽略了所有這些,因為以下原因。

i) 警告,還不知道原因。

   

   

   

   

   

   

   

   

執行完腳本后,點擊next。

   

   

   

單擊關閉,安裝成功完成。

   

21)在每個節點上,在 .bash_profile 文件中添加以下環境變量。

在node2上,ORACLE_SID值應為+ ASM2,依此類推,並用source命令使其生效。

##grid user environment variables

ORACLE_SID=+ASM1; export ORACLE_SID

ORACLE_BASE=/u01/app/grid; export ORACLE_BASE

ORACLE_HOME=/u01/app/11.2.0/grid; export ORACLE_HOME

ORACLE_TERM=xterm; export ORACLE_TERM

PATH=$ORACLE_HOME/bin:$PATH; export PATH

LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib; export LD_LIBRARY_PATH

CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib; export CLASSPATH

export TEMP=/tmp

export TMPDIR=/tmp

   

22)在每個節點上,檢查CRS的健康狀況。一切似乎都可以正常工作

[root@zichuan1 ~]# crsctl stat res -t

--------------------------------------------------------------------------------

NAME TARGET STATE SERVER STATE_DETAILS

--------------------------------------------------------------------------------

Local Resources

--------------------------------------------------------------------------------

ora.CRS.dg

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.LISTENER.lsnr

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.asm

ONLINE ONLINE zichuan1 Started

ONLINE ONLINE zichuan2 Started

ora.gsd

OFFLINE OFFLINE zichuan1

OFFLINE OFFLINE zichuan2

ora.net1.network

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.ons

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

--------------------------------------------------------------------------------

Cluster Resources

--------------------------------------------------------------------------------

ora.LISTENER_SCAN1.lsnr

1 ONLINE ONLINE zichuan1

ora.cvu

1 ONLINE ONLINE zichuan1

ora.oc4j

1 ONLINE ONLINE zichuan1

ora.scan1.vip

1 ONLINE ONLINE zichuan1

ora.zichuan1.vip

1 ONLINE ONLINE zichuan1

ora.zichuan2.vip

1 ONLINE ONLINE zichuan2

   

[root@zichuan1 grid]# srvctl status scan

SCAN VIP scan1 is enabled

SCAN VIP scan1 is running on node zichuan1

[root@zichuan1 grid]# srvctl status scan_listener

SCAN Listener LISTENER_SCAN1 is enabled

SCAN listener LISTENER_SCAN1 is running on node zichuan1

   

[grid@zichuan2 ~]$ srvctl status scan

SCAN VIP scan1 is enabled

SCAN VIP scan1 is running on node zichuan1

   

[grid@zichuan2 ~]$ srvctl status scan_listener

SCAN Listener LISTENER_SCAN1 is enabled

SCAN listener LISTENER_SCAN1 is running on node zichuan1

   

   

23)安裝數據庫軟件

在開始數據庫軟件安裝之前,首先我們創建一個用於存儲數據庫的磁盤組DATA; 我們將在數據庫軟件安裝期間正式創建。

打開終端並以操作系統用戶"grid"登錄。現在使用 SQLPLUS 以 SYSASM 權限登錄到 ASM 實例,然后創建磁盤組 DATA。

[grid@zichuan1 ~]$ sqlplus

   

SQL*Plus: Release 11.2.0.4.0 Production on Tue Sep 19 22:45:42 2017

   

Copyright (c) 1982, 2013, Oracle. All rights reserved.

   

Enter user-name: sys as sysasm

Enter password:

   

Connected to:

Oracle Database 11g Enterprise Edition Release 11.2.0.4.0 - 64bit Production

With the Real Application Clusters and Automatic Storage Management options

   

SQL> select name, path from v$asm_disk;

   

NAME

------------------------------

PATH

--------------------------------------------------------------------------------

   

ORCL:DATA

   

CRS1

ORCL:CRS1

   

CRS2

ORCL:CRS2

   

CRS3

ORCL:CRS3

   

創建磁盤組。

   

SQL> create diskgroup DATA external redundancy disk 'ORCL:DATA' ATTRIBUTE 'compatible.asm'='11.2.0.0.0','compatible.rdbms'='11.2.0.0.0';

   

Diskgroup created.

   

If you created this diskgroup from node1, use srvctl command to start this new disk resource on all other nodes

[grid@zichuan1 ~]$ srvctl start diskgroup -g DATA -n zichuan2

   

由於我在這里使用2個不同的操作系統用戶,所以從任一節點,都可以使用桌面系統以用戶"oracle"身份登錄,並從數據庫軟件已被提取的目錄啟動安裝。

[oracle@zichuan1 database]$cd /u02/11.2.0/database

   

[oracle@zichuan1 database]$./runInstaller

   

   

   

跳過軟件更新

   

   

在安裝過程中創建一個新的數據庫。 點擊下一步。

   

   

選擇Server類數據庫。點擊下一步

   

   

默認情況下,選擇所有節點進行數據庫軟件安裝,單擊"SSH Connectivity"按鈕,以前在 grid 基礎架構安裝期間配置了 grid 用戶,需要配置SSH連接。這次SSH將被配置為"oracle"用戶。配置完成后,單擊下一步。

   

   

   

   

   

如果需要修改路徑的話,請先修改路徑,這個與后面oracle環境變量里面的參數有關系,注意路徑需要一致。

   

   

選擇要創建的數據庫類型,單擊下一步。

   

   

設置oracle實例的名稱以及SID名稱。

   

   

根據實際情況,指定數據庫實例的內存分配詳細信息,一般而言使用推薦的大小就可以。

   

   

   

選擇"Oracle自動存儲管理",因為我們已經創建了一個用於存儲數據庫的ASM磁盤。

這個密碼不知道是干嘛的,反正和數據庫密碼設置成同一個了。

   

   

設置數據庫自動備份策略以及數據庫recover密碼,這個密碼一定要記住。

另:這個可以選擇不備份。

   

   

選擇我們創建的存儲數據庫文件的磁盤組,單擊下一步。

   

   

設置數據庫管理員密碼,這個密碼一定要記住,非常重要。

   

   

   

第一個警告仍然不知道為什么,網上查了應該是不需要管他。

第二個是因為

   

   

   

   

數據庫正在安裝實例。

如果沒有這一步的話,實例將無法正確運行。

   

   

   

這個過程相當漫長,需要耐心等待。

   

   

在安裝過程中,將提示您以root身份在兩個節點上執行root.sh。

當提示時,逐個在兩個節點上執行,單擊確定關閉該框,以便進一步安裝。

   

   

[root@zichuan1 dbhome]# ./root.sh

Performing root user operation for Oracle 11g

   

The following environment variables are set as:

ORACLE_OWNER= oracle

ORACLE_HOME= /u01/app/oracle/product/11.2.0/dbhome

   

Enter the full pathname of the local bin directory: [/usr/local/bin]:

The contents of "dbhome" have not changed. No need to overwrite.

The contents of "oraenv" have not changed. No need to overwrite.

The contents of "coraenv" have not changed. No need to overwrite.

   

Entries will be added to the /etc/oratab file as needed by

Database Configuration Assistant when a database is created

Finished running generic part of root script.

Now product-specific root actions will be performed.

Finished product-specific root actions

   

 至此,安裝成功。

   

24)在兩個節點上的"oracle"用戶的 .bash_profile 中添加以下環境變量設置,並source使之生效。

相應地為每個節點修改ORACLE_SID的值。

ORACLE_SID=zichuan1; export ORACLE_SID

ORACLE_BASE=/u01/app/oracle; export ORACLE_BASE

ORACLE_HOME=/u01/app/oracle/product/11.2.0/dbhome; export ORACLE_HOME

ORACLE_TERM=xterm; export ORACLE_TERM

PATH=$ORACLE_HOME/bin:$PATH; export PATH

LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib; export LD_LIBRARY_PATH

CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib; export CLASSPATH

export TEMP=/tmp

export TMPDIR=/tmp

   

25)RAC安裝成功完成。檢查所有資源和數據庫實例的狀態

[grid@zichuan1 dbhome]$ crsctl stat res -t

--------------------------------------------------------------------------------

NAME TARGET STATE SERVER STATE_DETAILS

--------------------------------------------------------------------------------

Local Resources

--------------------------------------------------------------------------------

ora.CRS.dg

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.DATA.dg

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.LISTENER.lsnr

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.asm

ONLINE ONLINE zichuan1 Started

ONLINE ONLINE zichuan2 Started

ora.gsd

OFFLINE OFFLINE zichuan1

OFFLINE OFFLINE zichuan2

ora.net1.network

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

ora.ons

ONLINE ONLINE zichuan1

ONLINE ONLINE zichuan2

--------------------------------------------------------------------------------

Cluster Resources

--------------------------------------------------------------------------------

ora.LISTENER_SCAN1.lsnr

1 ONLINE ONLINE zichuan1

ora.cvu

1 ONLINE ONLINE zichuan1

ora.oc4j

1 ONLINE ONLINE zichuan1

ora.scan1.vip

1 ONLINE ONLINE zichuan1

ora.zichuan1.vip

1 ONLINE ONLINE zichuan1

ora.zichuan2.vip

1 ONLINE ONLINE zichuan2

ora.zichuandb.db

1 ONLINE ONLINE zichuan1 Open

2 ONLINE ONLINE zichuan2 Open

   

   

[grid@zichuan1 dbhome]$ srvctl status database -d zichuandb

Instance zichuan1 is running on node zichuan1

Instance zichuan2 is running on node zichuan2

  

   


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM