grid 유저로 실행
cd <설치 파일 압축 해제 경로>/grid ./runInstaller
grid 유저로 수행
cd <설치 파일 압축 해제 경로>/grid ./runcluvfy.sh stage -pre crsinst -n <1번 노드명>,<2번 노드명> -fixup -verbose
[grid@+ASM1 grid]$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose 클러스터 서비스 설정에 대한 사전 확인 수행 노드 연결 가능성을 검사하는 중... 검사: "rac1" 노드에서의 노드 연결 가능성 대상 노드 연결 가능? ------------------------------------ ------------------------ rac1 예 rac2 예 결과: "rac1" 노드에서 노드 연결 가능성 검사를 성공했습니다. 사용자 equivalence를 검사하는 중... 검사: 사용자 "grid"에 대한 사용자 equivalence 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 사용자 "grid"에 대한 사용자 equivalence 검사를 성공했습니다. 노드 연결을 검사하는 중... 호스트 구성 파일 확인 중... 노드 이름 상태 ------------------------------------ ------------------------ rac1 성공 rac2 성공 호스트 구성 파일 확인을 성공했습니다. "rac1" 노드에 대한 인터페이스 정보 이름 IP 주소 서브넷 게이트웨이 Def. 게이트웨이 HW 주소 MTU ------ --------------- --------------- --------------- --------------- ----------------- ------ eth0 10.0.1.101 10.0.1.0 0.0.0.0 10.0.1.1 08:00:27:76:C1:BF 1500 eth1 10.0.5.101 10.0.5.0 0.0.0.0 10.0.1.1 08:00:27:67:3C:E6 1500 "rac2" 노드에 대한 인터페이스 정보 이름 IP 주소 서브넷 게이트웨이 Def. 게이트웨이 HW 주소 MTU ------ --------------- --------------- --------------- --------------- ----------------- ------ eth0 10.0.1.102 10.0.1.0 0.0.0.0 10.0.1.1 08:00:27:9B:01:9E 1500 eth1 10.0.5.102 10.0.5.0 0.0.0.0 10.0.1.1 08:00:27:06:0D:38 1500 검사: "10.0.1.0" 서브넷에 대한 노드 연결 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1[10.0.1.101] rac2[10.0.1.102] 예 결과: rac1,rac2개의 노드를 사용하는 "10.0.1.0" 서브넷에 대한 노드 연결을 성공했습니다. 검사: "10.0.1.0" 서브넷의 TCP 접속 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1 : 10.0.1.101 rac1 : 10.0.1.101 성공 rac2 : 10.0.1.102 rac1 : 10.0.1.101 성공 rac1 : 10.0.1.101 rac2 : 10.0.1.102 성공 rac2 : 10.0.1.102 rac2 : 10.0.1.102 성공 결과: "10.0.1.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. 검사: "10.0.5.0" 서브넷에 대한 노드 연결 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1[10.0.5.101] rac2[10.0.5.102] 예 결과: rac1,rac2개의 노드를 사용하는 "10.0.5.0" 서브넷에 대한 노드 연결을 성공했습니다. 검사: "10.0.5.0" 서브넷의 TCP 접속 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1 : 10.0.5.101 rac1 : 10.0.5.101 성공 rac2 : 10.0.5.102 rac1 : 10.0.5.101 성공 rac1 : 10.0.5.101 rac2 : 10.0.5.102 성공 rac2 : 10.0.5.102 rac2 : 10.0.5.102 성공 결과: "10.0.5.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. "10.0.1.0" 서브넷에서 발견된 VIP 후보로 적합한 인터페이스: rac1 eth0:10.0.1.101 rac2 eth0:10.0.1.102 "10.0.5.0" 서브넷에서 발견된 전용 상호 접속 후보로 적합한 인터페이스: rac1 eth1:10.0.5.101 rac2 eth1:10.0.5.102 서브넷 마스크 일관성 확인 중... "10.0.1.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. "10.0.5.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. 서브넷 마스크 일관성 검사를 성공했습니다. 결과: 노드 연결 검사를 성공했습니다. 멀티캐스트 통신을 검사하는 중... 멀티캐스트 그룹 "224.0.0.251"과(와) 멀티캐스트 통신을 위해 "10.0.1.0" 서브넷을 검사하는 중... 멀티캐스트 그룹 "224.0.0.251"과(와) 멀티캐스트 통신을 위한 "10.0.1.0" 서브넷 검사를 성공했습니다. 멀티캐스트 통신 검사를 성공했습니다. ASMLib 구성을 검사하는 중입니다. 노드 이름 상태 ------------------------------------ ------------------------ rac1 성공 rac2 성공 결과: ASMLib 구성 검사를 성공했습니다. 검사: 총 메모리 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.843GB (5078208.0KB) 4GB (4194304.0KB) 성공 rac1 4.843GB (5078208.0KB) 4GB (4194304.0KB) 성공 결과: 총 메모리 검사를 성공했습니다. 검사: 사용 가능한 메모리 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.7402GB (4970504.0KB) 50MB (51200.0KB) 성공 rac1 4.2456GB (4451792.0KB) 50MB (51200.0KB) 성공 결과: 사용 가능한 메모리 검사를 성공했습니다. 검사: 교체 공간 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 5GB (5242876.0KB) 4.843GB (5078208.0KB) 성공 rac1 5GB (5242876.0KB) 4.843GB (5078208.0KB) 성공 결과: 교체 공간 검사를 성공했습니다. 검사: "rac2:/usr,rac2:/var,rac2:/etc,rac2:/sbin,rac2:/tmp"에 대한 여유 디스크 공간 경로 노드 이름 마운트 위치 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ------------ ------------ /usr rac2 / 40.1377GB 1.0635GB 성공 /var rac2 / 40.1377GB 1.0635GB 성공 /etc rac2 / 40.1377GB 1.0635GB 성공 /sbin rac2 / 40.1377GB 1.0635GB 성공 /tmp rac2 / 40.1377GB 1.0635GB 성공 결과: "rac2:/usr,rac2:/var,rac2:/etc,rac2:/sbin,rac2:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다. 검사: "rac1:/usr,rac1:/var,rac1:/etc,rac1:/sbin,rac1:/tmp"에 대한 여유 디스크 공간 경로 노드 이름 마운트 위치 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ------------ ------------ /usr rac1 / 38.8786GB 1.0635GB 성공 /var rac1 / 38.8786GB 1.0635GB 성공 /etc rac1 / 38.8786GB 1.0635GB 성공 /sbin rac1 / 38.8786GB 1.0635GB 성공 /tmp rac1 / 38.8786GB 1.0635GB 성공 결과: "rac1:/usr,rac1:/var,rac1:/etc,rac1:/sbin,rac1:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다. 검사: "grid"에 대한 사용자 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함(54322) rac1 성공 존재함(54322) UID 값이 54322인 다중 사용자를 검사하는 중 결과: UID 값이 54322인 다중 사용자 검사를 성공했습니다. 결과: "grid"에 대한 사용자 존재 여부 검사를 성공했습니다. 검사: "oinstall"에 대한 그룹 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함 rac1 성공 존재함 결과: "oinstall"에 대한 그룹 존재 여부 검사를 성공했습니다. 검사: "dba"에 대한 그룹 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함 rac1 성공 존재함 결과: "dba"에 대한 그룹 존재 여부 검사를 성공했습니다. 검사: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 노드 이름 사용자가 존재함 그룹이 존재함 그룹의 사용자 기본 상태 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 예 예 예 예 성공 rac1 예 예 예 예 성공 결과: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 검사를 성공했습니다. 검사: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 노드 이름 사용자가 존재함 그룹이 존재함 그룹의 사용자 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 예 예 아니오 실패 rac1 예 예 아니오 실패 결과: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 검사를 실패했습니다. 검사: 실행 레벨 노드 이름 실행 레벨 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 3 3,5 성공 rac1 5 3,5 성공 결과: 실행 레벨 검사를 성공했습니다. 검사: "최대 열린 파일 기술자"에 대한 완전 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 완전 4096 65536 실패 rac1 완전 4096 65536 실패 결과: "최대 열린 파일 기술자"에 대한 완전 제한 검사를 실패했습니다. 검사: "최대 열린 파일 기술자"에 대한 부분 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 부분 1024 1024 성공 rac1 부분 4096 1024 성공 결과: "최대 열린 파일 기술자"에 대한 부분 제한 검사를 성공했습니다. 검사: "최대 사용자 프로세스"에 대한 완전 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 완전 16384 16384 성공 rac1 완전 16384 16384 성공 결과: "최대 사용자 프로세스"에 대한 완전 제한 검사를 성공했습니다. 검사: "최대 사용자 프로세스"에 대한 부분 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 부분 16384 2047 성공 rac1 부분 16384 2047 성공 결과: "최대 사용자 프로세스"에 대한 부분 제한 검사를 성공했습니다. 검사: 시스템 구조 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 x86_64 x86_64 성공 rac1 x86_64 x86_64 성공 결과: 시스템 구조 검사를 성공했습니다. 검사: 커널 버전 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.1.12-37.4.1.el6uek.x86_64 2.6.39 성공 rac1 4.1.12-37.4.1.el6uek.x86_64 2.6.39 성공 결과: 커널 버전 검사를 성공했습니다. 검사: "semmsl"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 250 250 250 성공 rac2 250 250 250 성공 결과: "semmsl"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semmns"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 32000 32000 32000 성공 rac2 32000 32000 32000 성공 결과: "semmns"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semopm"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 100 100 100 성공 rac2 100 100 100 성공 결과: "semopm"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semmni"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 128 128 128 성공 rac2 128 128 128 성공 결과: "semmni"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmmax"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4398046511104 4398046511104 2600042496 성공 rac2 4398046511104 4398046511104 2600042496 성공 결과: "shmmax"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmmni"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4096 4096 4096 성공 rac2 4096 4096 4096 성공 결과: "shmmni"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmall"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4294967296 4294967296 507820 성공 rac2 4294967296 4294967296 507820 성공 결과: "shmall"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "file-max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 6815744 6815744 6815744 성공 rac2 6815744 6815744 6815744 성공 결과: "file-max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "ip_local_port_range"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 between 9000 & 65535 between 9000 & 65535 between 9000 & 65535 성공 rac2 between 9000 & 65535 between 9000 & 65535 between 9000 & 65535 성공 결과: "ip_local_port_range"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "rmem_default"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 262144 262144 262144 성공 rac2 262144 262144 262144 성공 결과: "rmem_default"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "rmem_max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4194304 4194304 4194304 성공 rac2 4194304 4194304 4194304 성공 결과: "rmem_max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "wmem_default"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 262144 262144 262144 성공 rac2 262144 262144 262144 성공 결과: "wmem_default"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "wmem_max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 1048576 1048576 1048576 성공 rac2 1048576 1048576 1048576 성공 결과: "wmem_max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "aio-max-nr"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 1048576 1048576 1048576 성공 rac2 1048576 1048576 1048576 성공 결과: "aio-max-nr"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "panic_on_oops"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 1 1 1 성공 rac2 1 1 1 성공 결과: "panic_on_oops"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "binutils"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 binutils-2.20.51.0.2-5.44.el6 binutils-2.20.51.0.2 성공 rac1 binutils-2.20.51.0.2-5.44.el6 binutils-2.20.51.0.2 성공 결과: "binutils"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "compat-libcap1"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 compat-libcap1-1.10-1 compat-libcap1-1.10 성공 rac1 compat-libcap1-1.10-1 compat-libcap1-1.10 성공 결과: "compat-libcap1"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 성공 rac1 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 성공 결과: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libgcc(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libgcc(x86_64)-4.4.7-17.el6 libgcc(x86_64)-4.4.4 성공 rac1 libgcc(x86_64)-4.4.7-17.el6 libgcc(x86_64)-4.4.4 성공 결과: "libgcc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libstdc++(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libstdc++(x86_64)-4.4.7-17.el6 libstdc++(x86_64)-4.4.4 성공 rac1 libstdc++(x86_64)-4.4.7-17.el6 libstdc++(x86_64)-4.4.4 성공 결과: "libstdc++(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libstdc++-devel(x86_64)-4.4.7-17.el6 libstdc++-devel(x86_64)-4.4.4 성공 rac1 libstdc++-devel(x86_64)-4.4.7-17.el6 libstdc++-devel(x86_64)-4.4.4 성공 결과: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "sysstat"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 sysstat-9.0.4-31.el6 sysstat-9.0.4 성공 rac1 sysstat-9.0.4-31.el6 sysstat-9.0.4 성공 결과: "sysstat"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "gcc"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 gcc-4.4.7-17.el6 gcc-4.4.4 성공 rac1 gcc-4.4.7-17.el6 gcc-4.4.4 성공 결과: "gcc"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "gcc-c++"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 gcc-c++-4.4.7-17.el6 gcc-c++-4.4.4 성공 rac1 gcc-c++-4.4.7-17.el6 gcc-c++-4.4.4 성공 결과: "gcc-c++"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "ksh"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 ksh ksh 성공 rac1 ksh ksh 성공 결과: "ksh"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "make"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 make-3.81-23.el6 make-3.81 성공 rac1 make-3.81-23.el6 make-3.81 성공 결과: "make"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "glibc(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 glibc(x86_64)-2.12-1.192.el6 glibc(x86_64)-2.12 성공 rac1 glibc(x86_64)-2.12-1.192.el6 glibc(x86_64)-2.12 성공 결과: "glibc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 glibc-devel(x86_64)-2.12-1.192.el6 glibc-devel(x86_64)-2.12 성공 rac1 glibc-devel(x86_64)-2.12-1.192.el6 glibc-devel(x86_64)-2.12 성공 결과: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libaio(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.107 성공 rac1 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.107 성공 결과: "libaio(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.107 성공 rac1 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.107 성공 결과: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "nfs-utils"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 nfs-utils-1.2.3-70.0.1.el6 nfs-utils-1.2.3-15 성공 rac1 nfs-utils-1.2.3-70.0.1.el6 nfs-utils-1.2.3-15 성공 결과: "nfs-utils"에 대한 패키지 존재 여부 검사를 성공했습니다. "Oracle Notification Service (ONS)" 구성 요소에 필요한 "6200,6100" 포트의 가용성을 검사하는 중 노드 이름 포트 번호 프로토콜 사용 가능 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 6200 TCP 예 성공 rac1 6200 TCP 예 성공 rac2 6100 TCP 예 성공 rac1 6100 TCP 예 성공 결과: "6200,6100"에 대한 포트 가용성 검사를 성공했습니다. "Oracle Cluster Synchronization Services (CSSD)" 구성 요소에 필요한 "42424" 포트의 가용성을 검사하는 중 노드 이름 포트 번호 프로토콜 사용 가능 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 42424 TCP 예 성공 rac1 42424 TCP 예 성공 결과: "42424"에 대한 포트 가용성 검사를 성공했습니다. UID 값이 0인 다중 사용자를 검사하는 중 결과: UID 값이 0인 다중 사용자 검사를 성공했습니다. 검사: 현재 그룹 ID 결과: 현재 그룹 ID 검사를 성공했습니다. 루트 사용자의 기본 그룹 일관성 검사를 시작하는 중입니다. 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 루트 사용자의 기본 그룹에 대한 일관성 검사를 성공했습니다. NTP(Network Time Protocol)를 사용하여 시계 동기화 검사를 시작하는 중... 노드에서 NTP 구성 파일 "/etc/ntp.conf"이(가) 존재하는지 검사하는 중 노드 이름 파일 존재 여부 ------------------------------------ ------------------------ rac2 아니오 rac1 아니오 노드에서 NTP(Network Time Protocol) 구성 파일을 찾을 수 없습니다. 클러스터 노드에 대한 시간 동기화에 NTP 대신 Oracle CTSS(Cluster Time Synchronization Service)를 사용할 수 있습니다. 실행 중인 NTP 데몬 또는 서비스가 없는 것으로 확인되었습니다. 결과: NTP(Network Time Protocol)를 사용한 시계 동기화 검사를 성공했습니다. 코어 파일 이름 패턴 일관성을 검사하는 중... 코어 파일 이름 패턴 일관성 검사를 성공했습니다. 사용자 "grid"이(가) "root" 그룹에 속해 있지 않은지 확인하는 중입니다. 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재하지 않음 rac1 성공 존재하지 않음 결과: 사용자 "grid"이(가) "root" 그룹에 속해 있지 않습니다. 검사를 성공했습니다. 기본 사용자 파일 생성 마스크 검사 노드 이름 사용 가능 필수 설명 ------------ ------------------------ ------------------------ ---------- rac2 0022 0022 성공 rac1 0022 0022 성공 결과: 기본 사용자 파일 생성 마스크 검사를 성공했습니다. 노드에서 "/etc/resolv.conf" 파일의 무결성을 검사하는 중 "/etc/resolv.conf" 파일에서 'domain' 및 'search' 항목이 하나씩만 정의되어 있는지 검사하는 중 "domain" 및 "search" 항목이 "/etc/resolv.conf" 파일에서 공존하지 않습니다. "/etc/resolv.conf" 파일의 'domain' 항목이 노드에서 일치하는지 여부를 검사하는 중... "domain" 항목이 "/etc/resolv.conf" 파일에 존재하지 않습니다. "/etc/resolv.conf" 파일의 'search' 항목이 노드에서 일치하는지 여부를 검사하는 중... "search" 항목이 "/etc/resolv.conf" 파일에 존재하지 않습니다. 연결할 수 없는 노드에 대한 DNS 응답 시간을 검사하는 중 노드 이름 상태 ------------------------------------ ------------------------ rac1 성공 rac2 성공 모든 노드에서 연결할 수 없는 노드에 대한 DNS 응답 시간이 허용되는 제한 범위에 속합니다. "/etc/resolv.conf"의 모든 서버에서 DNS 응답을 확인하는 중 "/etc/resolv.conf"에 지정된 각 이름 서버에서 "rac2" 이름에 대한 응답을 확인하는 중 노드 이름 소스 설명 상태 ------------ ------------------------ ------------------------ ---------- rac2 127.0.0.1 IPv4 성공 "/etc/resolv.conf"에 지정된 각 이름 서버에서 "rac1" 이름에 대한 응답을 확인하는 중 노드 이름 소스 설명 상태 ------------ ------------------------ ------------------------ ---------- rac1 127.0.0.1 IPv4 성공 "/etc/resolv.conf" 파일의 무결성 검사를 성공했습니다. 검사: 시간대 일관성 결과: 시간대 일관성 검사를 성공했습니다. 이름 서비스 스위치 구성 파일 "/etc/nsswitch.conf"의 무결성을 검사하는 중... "/etc/nsswitch.conf" 파일의 "hosts" 항목이 노드에서 일치하는지 검사하는 중... "/etc/nsswitch.conf" 파일에서 "hosts" 항목이 하나만 정의되었는지 검사하는 중 두 개 이상의 "hosts" 항목이 "/etc/nsswitch.conf" 파일에 존재하지 않습니다. 모든 노드의 "/etc/nsswitch.conf" 파일에 동일한 "hosts" 항목이 정의되었습니다. 이름 서비스 스위치 구성 파일 "/etc/nsswitch.conf"의 무결성 검사를 성공했습니다. "avahi-daemon" 데몬이 구성되어 실행 중이 아닌지 검사하는 중 검사: "avahi-daemon" 데몬 구성 안됨 노드 이름 구성됨 상태 ------------ ------------------------ ------------------------ rac2 아니오 성공 rac1 아니오 성공 "avahi-daemon" 프로세스에 대한 데몬 구성 안됨 검사를 성공했습니다. 검사: "avahi-daemon" 데몬 실행 중 아님 노드 이름 실행 중? 상태 ------------ ------------------------ ------------------------ rac2 아니오 성공 rac1 아니오 성공 "avahi-daemon" 프로세스에 대한 데몬 실행 중 아님 검사를 성공했습니다. /dev/shm이 임시 파일 시스템으로 마운트됨에 대한 검사를 시작하는 중... /dev/shm이 임시 파일 시스템으로 마운트됨에 대한 검사를 성공했습니다. /boot 마운트에 대한 검사를 시작하는 중... /boot 마운트에 대한 검사를 성공했습니다. zeroconf 검사에 대한 검사를 시작하는 중... zeroconf 검사에 대한 검사를 성공했습니다. 모든 노드에서 클러스터 서비스 설정에 대한 사전 확인을 실패했습니다. ****************************************************************************************** 다음은 이 세션에서 수정하도록 선택된 수정 가능 필요 조건 목록입니다. ****************************************************************************************** ------------ -------- --------- 검사를 실패했습니다. 노드에서 실패함 재부팅 필요 여부 ------------ -------- --------- 그룹 멤버쉽: dba rac2,rac1 아니오 완전 제한: 최대 열린 파일 기술자 rac2,rac1 아니오 "rac1,rac2" 노드에서 루트 사용자로 "/tmp/CVU_12.1.0.2.0_grid/runfixup.sh"을(를) 실행하여 수동으로 수정 작업을 수행하십시오. "rac1,rac2" 노드에서 "/tmp/CVU_12.1.0.2.0_grid/runfixup.sh" 실행이 완료된 후 ENTER 키를 눌러 계속하십시오.
[root@rac1 ~]# /tmp/CVU_12.1.0.2.0_grid/runfixup.sh All Fix-up operations were completed successfully. [root@rac2 ~]# /tmp/CVU_12.1.0.2.0_grid/runfixup.sh All Fix-up operations were completed successfully.
수정: 그룹 멤버쉽: dba 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 적용 가능한 모든 노드에서 "그룹 멤버쉽: dba"이(가) 성공적으로 수정되었습니다. 수정: 완전 제한: 최대 열린 파일 기술자 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 적용 가능한 모든 노드에서 "완전 제한: 최대 열린 파일 기술자"이(가) 성공적으로 수정되었습니다. 적용 가능한 모든 노드에서 수정 작업이 성공적으로 완료되었습니다.
[root@rac1 ~]# /u01/app/oraInventory/orainstRoot.sh 다음 권한 변경 중/u01/app/oraInventory. 그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다. 월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다. 그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall. 스크립트 실행이 완료되었습니다.
[root@rac2 ~]# /u01/app/oraInventory/orainstRoot.sh 다음 권한 변경 중/u01/app/oraInventory. 그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다. 월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다. 그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall. 스크립트 실행이 완료되었습니다.
[root@rac1 ~]# /u01/app/12.1.0/grid/root.sh Performing root user operation. The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/12.1.0/grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Copying dbhome to /usr/local/bin ... Copying oraenv to /usr/local/bin ... Copying coraenv to /usr/local/bin ... Creating /etc/oratab file... Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/12.1.0/grid/crs/install/crsconfig_params 2017/04/28 09:19:06 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector. 2017/04/28 09:19:37 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer (TFA) Collector. OLR initialization - successful root wallet root wallet cert root cert export peer wallet profile reader wallet pa wallet peer wallet keys pa wallet keys peer cert request pa cert request peer cert pa cert peer root cert TP profile reader root cert TP pa root cert TP peer pa cert TP pa peer cert TP profile reader pa cert TP profile reader peer cert TP peer user cert pa user cert 2017/04/28 09:20:42 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf' CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-2672: 'ora.evmd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.mdnsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.gipcd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.gipcd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac1')이 성공했습니다. ASM이 성공적으로 생성되고 시작되었습니다. 디스크 그룹 CRS이(가) 성공적으로 생성되었습니다. CRS-2672: 'ora.crf'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.storage'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.storage' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.crf' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crsd' 시작('rac1')이 성공했습니다. CRS-4256: 프로파일을 업데이트하는 중 선호 디스크 e0438474d0f04fc3bff1ccc5131bb541이(가) 성공적으로 추가되었습니다. 선호 디스크 e4957fad99c94f46bf484e5b0773608a이(가) 성공적으로 추가되었습니다. 선호 디스크 39e306a588d04ff8bfcc5a18b68ca6a9이(가) 성공적으로 추가되었습니다. 선호 디스크 그룹을 +CRS(으)로 성공적으로 바꾸었습니다. CRS-4256: 프로파일을 업데이트하는 중 CRS-4266: 선택 파일이 성공적으로 바뀌었습니다. ## STATE File Universal Id File Name Disk group -- ----- ----------------- --------- --------- 1. ONLINE e0438474d0f04fc3bff1ccc5131bb541 (ORCL:CRS1) [CRS] 2. ONLINE e4957fad99c94f46bf484e5b0773608a (ORCL:CRS2) [CRS] 3. ONLINE 39e306a588d04ff8bfcc5a18b68ca6a9 (ORCL:CRS3) [CRS] 3개의 선호 디스크를 찾았습니다. CRS-2791: 'rac1'에서 Oracle 고가용성 서비스가 관리하는 리소스의 종료 시작 중 CRS-2673: 'ora.crsd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.crsd' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.crf'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.ctssd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.evmd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.storage'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.mdnsd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.gpnpd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.storage' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.asm'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.crf' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.ctssd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.evmd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.gpnpd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.mdnsd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.asm' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.cluster_interconnect.haip'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.cluster_interconnect.haip' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.cssd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.cssd' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.gipcd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.gipcd' 정지('rac1')가 성공했습니다. CRS-2793: 'rac1'에서 Oracle 고가용성 서비스가 관리하는 리소스 종료가 완료되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 관리하는 리소스를 시작하는 중 CRS-2672: 'ora.mdnsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.evmd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gipcd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gipcd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cluster_interconnect.haip'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.ctssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.ctssd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cluster_interconnect.haip' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.asm'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.storage'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.storage' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crf'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crf' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crsd' 시작('rac1')이 성공했습니다. CRS-6023: Oracle Cluster Ready Services가 관리하는 리소스를 시작하는 중 CRS-6017: 서버에 대한 리소스 자동 시작을 처리하는 중: rac1 CRS-6016: rac1 서버에 대한 리소스 자동 시작이 완료되었습니다. CRS-6024: Oracle Cluster Ready Services가 관리하는 리소스의 시작을 완료했습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. 2017/04/28 09:26:07 CLSRSC-343: Successfully started Oracle Clusterware stack CRS-2672: 'ora.asm'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.CRS.dg'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.CRS.dg' 시작('rac1')이 성공했습니다. 2017/04/28 09:27:14 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ... succeeded
[root@rac2 ~]# /u01/app/12.1.0/grid/root.sh Performing root user operation. The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/12.1.0/grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Copying dbhome to /usr/local/bin ... Copying oraenv to /usr/local/bin ... Copying coraenv to /usr/local/bin ... Creating /etc/oratab file... Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/12.1.0/grid/crs/install/crsconfig_params 2017/04/28 09:28:13 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector. 2017/04/28 09:28:45 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer (TFA) Collector. OLR initialization - successful 2017/04/28 09:30:17 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf' CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 관리하는 리소스를 시작하는 중 CRS-2672: 'ora.mdnsd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.evmd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac2')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.gipcd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gipcd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac2')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.cluster_interconnect.haip'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.ctssd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.ctssd' 시작('rac2')이 성공했습니다. CRS-2676: 'ora.cluster_interconnect.haip' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.asm'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.storage'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.storage' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.crf'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crf' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.crsd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crsd' 시작('rac2')이 성공했습니다. CRS-6017: 서버에 대한 리소스 자동 시작을 처리하는 중: rac2 CRS-2672: 'ora.net1.network'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.net1.network' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.ons'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.ons' 시작('rac2')이 성공했습니다. CRS-6016: rac2 서버에 대한 리소스 자동 시작이 완료되었습니다. CRS-6024: Oracle Cluster Ready Services가 관리하는 리소스의 시작을 완료했습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. 2017/04/28 09:34:01 CLSRSC-343: Successfully started Oracle Clusterware stack 2017/04/28 09:34:20 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ... succeeded
[oracle@rac1 ~]$ crsctl stat res -t -------------------------------------------------------------------------------- Name Target State Server State details -------------------------------------------------------------------------------- Local Resources -------------------------------------------------------------------------------- ora.CRS.dg ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE ora.LISTENER.lsnr ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE ora.asm ONLINE ONLINE rac1 Started,STABLE ONLINE ONLINE rac2 Started,STABLE ora.net1.network ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE ora.ons ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE -------------------------------------------------------------------------------- Cluster Resources -------------------------------------------------------------------------------- ora.LISTENER_SCAN1.lsnr 1 ONLINE ONLINE rac1 STABLE ora.MGMTLSNR 1 ONLINE ONLINE rac1 169.254.84.89 10.0.5 .101,STABLE ora.cvu 1 ONLINE ONLINE rac1 STABLE ora.mgmtdb 1 ONLINE ONLINE rac1 Open,STABLE ora.oc4j 1 ONLINE ONLINE rac1 STABLE ora.rac1.vip 1 ONLINE ONLINE rac1 STABLE ora.rac2.vip 1 ONLINE ONLINE rac2 STABLE ora.scan1.vip 1 ONLINE ONLINE rac1 STABLE --------------------------------------------------------------------------------