cd <설치 파일 압축 해제 경로>/grid ./runInstaller
grid 설치 파일은 2개의 파일로 되어 있으며 모두 같은 경로에서 압축을 풀어 1개의 grid 디렉토리에 압축이 풀려야 합니다.
grid 유저로 압축이 해제된 경로의 grid 디렉토리로 이동해서 설치 파일을 실행합니다.
설치 옵션은 '클러스터에 대한 Oracle Grid Infrastructure 설치 및 구성'을 선택하고 <다음>을 클릭합니다.
클러스터 유형은 '표준 클러스터 구성'을 선택하고 <다음>을 클릭합니다.
설치 유형은 '일반 설치'를 선택하고 <다음>을 클릭합니다.
클러스터 구성 정보에 2번 노드를 추가하기 위해 <추가> 버튼을 클릭합니다.
2번 노드의 public 호스트 명과 virtual 호스트 명을 입력하고 <확인>을 클릭합니다.
양쪽 노드 간의 SSH 접속을 설정하기 위해 <SSH 접속> 버튼을 클릭합니다.
OS 비밀번호의 grid 계정의 비밀번호를 입력하고 <설정>을 클릭합니다.
노드간의 SSH 설정이 정상적으로 완료되었으면 <확인>을 클릭합니다.
cd <설치 파일 압축 해제 경로>/grid ./runcluvfy.sh stage -pre crsinst -n <1번 노드명>,<2번 노드명> -fixup -verbose
[grid@+ASM1 grid]$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose 클러스터 서비스 설정에 대한 사전 확인 수행 노드 연결 가능성을 검사하는 중... 검사: "rac1" 노드에서의 노드 연결 가능성 대상 노드 연결 가능? ------------------------------------ ------------------------ rac1 예 rac2 예 결과: "rac1" 노드에서 노드 연결 가능성 검사를 성공했습니다. 사용자 equivalence를 검사하는 중... 검사: 사용자 "grid"에 대한 사용자 equivalence 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 사용자 "grid"에 대한 사용자 equivalence 검사를 성공했습니다. 노드 연결을 검사하는 중... 호스트 구성 파일 확인 중... 노드 이름 상태 ------------------------------------ ------------------------ rac1 성공 rac2 성공 호스트 구성 파일 확인을 성공했습니다. "rac1" 노드에 대한 인터페이스 정보 이름 IP 주소 서브넷 게이트웨이 Def. 게이트웨이 HW 주소 MTU ------ --------------- --------------- --------------- --------------- ----------------- ------ eth0 10.0.1.101 10.0.1.0 0.0.0.0 10.0.1.1 08:00:27:76:C1:BF 1500 eth1 10.0.5.101 10.0.5.0 0.0.0.0 10.0.1.1 08:00:27:67:3C:E6 1500 "rac2" 노드에 대한 인터페이스 정보 이름 IP 주소 서브넷 게이트웨이 Def. 게이트웨이 HW 주소 MTU ------ --------------- --------------- --------------- --------------- ----------------- ------ eth0 10.0.1.102 10.0.1.0 0.0.0.0 10.0.1.1 08:00:27:9B:01:9E 1500 eth1 10.0.5.102 10.0.5.0 0.0.0.0 10.0.1.1 08:00:27:06:0D:38 1500 검사: "10.0.1.0" 서브넷에 대한 노드 연결 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1[10.0.1.101] rac2[10.0.1.102] 예 결과: rac1,rac2개의 노드를 사용하는 "10.0.1.0" 서브넷에 대한 노드 연결을 성공했습니다. 검사: "10.0.1.0" 서브넷의 TCP 접속 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1 : 10.0.1.101 rac1 : 10.0.1.101 성공 rac2 : 10.0.1.102 rac1 : 10.0.1.101 성공 rac1 : 10.0.1.101 rac2 : 10.0.1.102 성공 rac2 : 10.0.1.102 rac2 : 10.0.1.102 성공 결과: "10.0.1.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. 검사: "10.0.5.0" 서브넷에 대한 노드 연결 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1[10.0.5.101] rac2[10.0.5.102] 예 결과: rac1,rac2개의 노드를 사용하는 "10.0.5.0" 서브넷에 대한 노드 연결을 성공했습니다. 검사: "10.0.5.0" 서브넷의 TCP 접속 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1 : 10.0.5.101 rac1 : 10.0.5.101 성공 rac2 : 10.0.5.102 rac1 : 10.0.5.101 성공 rac1 : 10.0.5.101 rac2 : 10.0.5.102 성공 rac2 : 10.0.5.102 rac2 : 10.0.5.102 성공 결과: "10.0.5.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. "10.0.1.0" 서브넷에서 발견된 VIP 후보로 적합한 인터페이스: rac1 eth0:10.0.1.101 rac2 eth0:10.0.1.102 "10.0.5.0" 서브넷에서 발견된 전용 상호 접속 후보로 적합한 인터페이스: rac1 eth1:10.0.5.101 rac2 eth1:10.0.5.102 서브넷 마스크 일관성 확인 중... "10.0.1.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. "10.0.5.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. 서브넷 마스크 일관성 검사를 성공했습니다. 결과: 노드 연결 검사를 성공했습니다. 멀티캐스트 통신을 검사하는 중... 멀티캐스트 그룹 "224.0.0.251"과(와) 멀티캐스트 통신을 위해 "10.0.1.0" 서브넷을 검사하는 중... 멀티캐스트 그룹 "224.0.0.251"과(와) 멀티캐스트 통신을 위한 "10.0.1.0" 서브넷 검사를 성공했습니다. 멀티캐스트 통신 검사를 성공했습니다. ASMLib 구성을 검사하는 중입니다. 노드 이름 상태 ------------------------------------ ------------------------ rac1 성공 rac2 성공 결과: ASMLib 구성 검사를 성공했습니다. 검사: 총 메모리 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.843GB (5078208.0KB) 4GB (4194304.0KB) 성공 rac1 4.843GB (5078208.0KB) 4GB (4194304.0KB) 성공 결과: 총 메모리 검사를 성공했습니다. 검사: 사용 가능한 메모리 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.7402GB (4970504.0KB) 50MB (51200.0KB) 성공 rac1 4.2456GB (4451792.0KB) 50MB (51200.0KB) 성공 결과: 사용 가능한 메모리 검사를 성공했습니다. 검사: 교체 공간 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 5GB (5242876.0KB) 4.843GB (5078208.0KB) 성공 rac1 5GB (5242876.0KB) 4.843GB (5078208.0KB) 성공 결과: 교체 공간 검사를 성공했습니다. 검사: "rac2:/usr,rac2:/var,rac2:/etc,rac2:/sbin,rac2:/tmp"에 대한 여유 디스크 공간 경로 노드 이름 마운트 위치 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ------------ ------------ /usr rac2 / 40.1377GB 1.0635GB 성공 /var rac2 / 40.1377GB 1.0635GB 성공 /etc rac2 / 40.1377GB 1.0635GB 성공 /sbin rac2 / 40.1377GB 1.0635GB 성공 /tmp rac2 / 40.1377GB 1.0635GB 성공 결과: "rac2:/usr,rac2:/var,rac2:/etc,rac2:/sbin,rac2:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다. 검사: "rac1:/usr,rac1:/var,rac1:/etc,rac1:/sbin,rac1:/tmp"에 대한 여유 디스크 공간 경로 노드 이름 마운트 위치 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ------------ ------------ /usr rac1 / 38.8786GB 1.0635GB 성공 /var rac1 / 38.8786GB 1.0635GB 성공 /etc rac1 / 38.8786GB 1.0635GB 성공 /sbin rac1 / 38.8786GB 1.0635GB 성공 /tmp rac1 / 38.8786GB 1.0635GB 성공 결과: "rac1:/usr,rac1:/var,rac1:/etc,rac1:/sbin,rac1:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다. 검사: "grid"에 대한 사용자 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함(54322) rac1 성공 존재함(54322) UID 값이 54322인 다중 사용자를 검사하는 중 결과: UID 값이 54322인 다중 사용자 검사를 성공했습니다. 결과: "grid"에 대한 사용자 존재 여부 검사를 성공했습니다. 검사: "oinstall"에 대한 그룹 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함 rac1 성공 존재함 결과: "oinstall"에 대한 그룹 존재 여부 검사를 성공했습니다. 검사: "dba"에 대한 그룹 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함 rac1 성공 존재함 결과: "dba"에 대한 그룹 존재 여부 검사를 성공했습니다. 검사: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 노드 이름 사용자가 존재함 그룹이 존재함 그룹의 사용자 기본 상태 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 예 예 예 예 성공 rac1 예 예 예 예 성공 결과: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 검사를 성공했습니다. 검사: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 노드 이름 사용자가 존재함 그룹이 존재함 그룹의 사용자 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 예 예 아니오 실패 rac1 예 예 아니오 실패 결과: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 검사를 실패했습니다. 검사: 실행 레벨 노드 이름 실행 레벨 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 3 3,5 성공 rac1 5 3,5 성공 결과: 실행 레벨 검사를 성공했습니다. 검사: "최대 열린 파일 기술자"에 대한 완전 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 완전 4096 65536 실패 rac1 완전 4096 65536 실패 결과: "최대 열린 파일 기술자"에 대한 완전 제한 검사를 실패했습니다. 검사: "최대 열린 파일 기술자"에 대한 부분 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 부분 1024 1024 성공 rac1 부분 4096 1024 성공 결과: "최대 열린 파일 기술자"에 대한 부분 제한 검사를 성공했습니다. 검사: "최대 사용자 프로세스"에 대한 완전 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 완전 16384 16384 성공 rac1 완전 16384 16384 성공 결과: "최대 사용자 프로세스"에 대한 완전 제한 검사를 성공했습니다. 검사: "최대 사용자 프로세스"에 대한 부분 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 부분 16384 2047 성공 rac1 부분 16384 2047 성공 결과: "최대 사용자 프로세스"에 대한 부분 제한 검사를 성공했습니다. 검사: 시스템 구조 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 x86_64 x86_64 성공 rac1 x86_64 x86_64 성공 결과: 시스템 구조 검사를 성공했습니다. 검사: 커널 버전 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.1.12-37.4.1.el6uek.x86_64 2.6.39 성공 rac1 4.1.12-37.4.1.el6uek.x86_64 2.6.39 성공 결과: 커널 버전 검사를 성공했습니다. 검사: "semmsl"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 250 250 250 성공 rac2 250 250 250 성공 결과: "semmsl"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semmns"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 32000 32000 32000 성공 rac2 32000 32000 32000 성공 결과: "semmns"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semopm"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 100 100 100 성공 rac2 100 100 100 성공 결과: "semopm"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semmni"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 128 128 128 성공 rac2 128 128 128 성공 결과: "semmni"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmmax"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4398046511104 4398046511104 2600042496 성공 rac2 4398046511104 4398046511104 2600042496 성공 결과: "shmmax"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmmni"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4096 4096 4096 성공 rac2 4096 4096 4096 성공 결과: "shmmni"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmall"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4294967296 4294967296 507820 성공 rac2 4294967296 4294967296 507820 성공 결과: "shmall"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "file-max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 6815744 6815744 6815744 성공 rac2 6815744 6815744 6815744 성공 결과: "file-max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "ip_local_port_range"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 between 9000 & 65535 between 9000 & 65535 between 9000 & 65535 성공 rac2 between 9000 & 65535 between 9000 & 65535 between 9000 & 65535 성공 결과: "ip_local_port_range"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "rmem_default"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 262144 262144 262144 성공 rac2 262144 262144 262144 성공 결과: "rmem_default"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "rmem_max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 4194304 4194304 4194304 성공 rac2 4194304 4194304 4194304 성공 결과: "rmem_max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "wmem_default"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 262144 262144 262144 성공 rac2 262144 262144 262144 성공 결과: "wmem_default"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "wmem_max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 1048576 1048576 1048576 성공 rac2 1048576 1048576 1048576 성공 결과: "wmem_max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "aio-max-nr"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 1048576 1048576 1048576 성공 rac2 1048576 1048576 1048576 성공 결과: "aio-max-nr"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "panic_on_oops"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac1 1 1 1 성공 rac2 1 1 1 성공 결과: "panic_on_oops"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "binutils"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 binutils-2.20.51.0.2-5.44.el6 binutils-2.20.51.0.2 성공 rac1 binutils-2.20.51.0.2-5.44.el6 binutils-2.20.51.0.2 성공 결과: "binutils"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "compat-libcap1"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 compat-libcap1-1.10-1 compat-libcap1-1.10 성공 rac1 compat-libcap1-1.10-1 compat-libcap1-1.10 성공 결과: "compat-libcap1"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 성공 rac1 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 성공 결과: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libgcc(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libgcc(x86_64)-4.4.7-17.el6 libgcc(x86_64)-4.4.4 성공 rac1 libgcc(x86_64)-4.4.7-17.el6 libgcc(x86_64)-4.4.4 성공 결과: "libgcc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libstdc++(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libstdc++(x86_64)-4.4.7-17.el6 libstdc++(x86_64)-4.4.4 성공 rac1 libstdc++(x86_64)-4.4.7-17.el6 libstdc++(x86_64)-4.4.4 성공 결과: "libstdc++(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libstdc++-devel(x86_64)-4.4.7-17.el6 libstdc++-devel(x86_64)-4.4.4 성공 rac1 libstdc++-devel(x86_64)-4.4.7-17.el6 libstdc++-devel(x86_64)-4.4.4 성공 결과: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "sysstat"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 sysstat-9.0.4-31.el6 sysstat-9.0.4 성공 rac1 sysstat-9.0.4-31.el6 sysstat-9.0.4 성공 결과: "sysstat"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "gcc"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 gcc-4.4.7-17.el6 gcc-4.4.4 성공 rac1 gcc-4.4.7-17.el6 gcc-4.4.4 성공 결과: "gcc"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "gcc-c++"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 gcc-c++-4.4.7-17.el6 gcc-c++-4.4.4 성공 rac1 gcc-c++-4.4.7-17.el6 gcc-c++-4.4.4 성공 결과: "gcc-c++"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "ksh"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 ksh ksh 성공 rac1 ksh ksh 성공 결과: "ksh"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "make"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 make-3.81-23.el6 make-3.81 성공 rac1 make-3.81-23.el6 make-3.81 성공 결과: "make"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "glibc(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 glibc(x86_64)-2.12-1.192.el6 glibc(x86_64)-2.12 성공 rac1 glibc(x86_64)-2.12-1.192.el6 glibc(x86_64)-2.12 성공 결과: "glibc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 glibc-devel(x86_64)-2.12-1.192.el6 glibc-devel(x86_64)-2.12 성공 rac1 glibc-devel(x86_64)-2.12-1.192.el6 glibc-devel(x86_64)-2.12 성공 결과: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libaio(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.107 성공 rac1 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.107 성공 결과: "libaio(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.107 성공 rac1 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.107 성공 결과: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "nfs-utils"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 nfs-utils-1.2.3-70.0.1.el6 nfs-utils-1.2.3-15 성공 rac1 nfs-utils-1.2.3-70.0.1.el6 nfs-utils-1.2.3-15 성공 결과: "nfs-utils"에 대한 패키지 존재 여부 검사를 성공했습니다. "Oracle Notification Service (ONS)" 구성 요소에 필요한 "6200,6100" 포트의 가용성을 검사하는 중 노드 이름 포트 번호 프로토콜 사용 가능 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 6200 TCP 예 성공 rac1 6200 TCP 예 성공 rac2 6100 TCP 예 성공 rac1 6100 TCP 예 성공 결과: "6200,6100"에 대한 포트 가용성 검사를 성공했습니다. "Oracle Cluster Synchronization Services (CSSD)" 구성 요소에 필요한 "42424" 포트의 가용성을 검사하는 중 노드 이름 포트 번호 프로토콜 사용 가능 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 42424 TCP 예 성공 rac1 42424 TCP 예 성공 결과: "42424"에 대한 포트 가용성 검사를 성공했습니다. UID 값이 0인 다중 사용자를 검사하는 중 결과: UID 값이 0인 다중 사용자 검사를 성공했습니다. 검사: 현재 그룹 ID 결과: 현재 그룹 ID 검사를 성공했습니다. 루트 사용자의 기본 그룹 일관성 검사를 시작하는 중입니다. 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 루트 사용자의 기본 그룹에 대한 일관성 검사를 성공했습니다. NTP(Network Time Protocol)를 사용하여 시계 동기화 검사를 시작하는 중... 노드에서 NTP 구성 파일 "/etc/ntp.conf"이(가) 존재하는지 검사하는 중 노드 이름 파일 존재 여부 ------------------------------------ ------------------------ rac2 아니오 rac1 아니오 노드에서 NTP(Network Time Protocol) 구성 파일을 찾을 수 없습니다. 클러스터 노드에 대한 시간 동기화에 NTP 대신 Oracle CTSS(Cluster Time Synchronization Service)를 사용할 수 있습니다. 실행 중인 NTP 데몬 또는 서비스가 없는 것으로 확인되었습니다. 결과: NTP(Network Time Protocol)를 사용한 시계 동기화 검사를 성공했습니다. 코어 파일 이름 패턴 일관성을 검사하는 중... 코어 파일 이름 패턴 일관성 검사를 성공했습니다. 사용자 "grid"이(가) "root" 그룹에 속해 있지 않은지 확인하는 중입니다. 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재하지 않음 rac1 성공 존재하지 않음 결과: 사용자 "grid"이(가) "root" 그룹에 속해 있지 않습니다. 검사를 성공했습니다. 기본 사용자 파일 생성 마스크 검사 노드 이름 사용 가능 필수 설명 ------------ ------------------------ ------------------------ ---------- rac2 0022 0022 성공 rac1 0022 0022 성공 결과: 기본 사용자 파일 생성 마스크 검사를 성공했습니다. 노드에서 "/etc/resolv.conf" 파일의 무결성을 검사하는 중 "/etc/resolv.conf" 파일에서 'domain' 및 'search' 항목이 하나씩만 정의되어 있는지 검사하는 중 "domain" 및 "search" 항목이 "/etc/resolv.conf" 파일에서 공존하지 않습니다. "/etc/resolv.conf" 파일의 'domain' 항목이 노드에서 일치하는지 여부를 검사하는 중... "domain" 항목이 "/etc/resolv.conf" 파일에 존재하지 않습니다. "/etc/resolv.conf" 파일의 'search' 항목이 노드에서 일치하는지 여부를 검사하는 중... "search" 항목이 "/etc/resolv.conf" 파일에 존재하지 않습니다. 연결할 수 없는 노드에 대한 DNS 응답 시간을 검사하는 중 노드 이름 상태 ------------------------------------ ------------------------ rac1 성공 rac2 성공 모든 노드에서 연결할 수 없는 노드에 대한 DNS 응답 시간이 허용되는 제한 범위에 속합니다. "/etc/resolv.conf"의 모든 서버에서 DNS 응답을 확인하는 중 "/etc/resolv.conf"에 지정된 각 이름 서버에서 "rac2" 이름에 대한 응답을 확인하는 중 노드 이름 소스 설명 상태 ------------ ------------------------ ------------------------ ---------- rac2 127.0.0.1 IPv4 성공 "/etc/resolv.conf"에 지정된 각 이름 서버에서 "rac1" 이름에 대한 응답을 확인하는 중 노드 이름 소스 설명 상태 ------------ ------------------------ ------------------------ ---------- rac1 127.0.0.1 IPv4 성공 "/etc/resolv.conf" 파일의 무결성 검사를 성공했습니다. 검사: 시간대 일관성 결과: 시간대 일관성 검사를 성공했습니다. 이름 서비스 스위치 구성 파일 "/etc/nsswitch.conf"의 무결성을 검사하는 중... "/etc/nsswitch.conf" 파일의 "hosts" 항목이 노드에서 일치하는지 검사하는 중... "/etc/nsswitch.conf" 파일에서 "hosts" 항목이 하나만 정의되었는지 검사하는 중 두 개 이상의 "hosts" 항목이 "/etc/nsswitch.conf" 파일에 존재하지 않습니다. 모든 노드의 "/etc/nsswitch.conf" 파일에 동일한 "hosts" 항목이 정의되었습니다. 이름 서비스 스위치 구성 파일 "/etc/nsswitch.conf"의 무결성 검사를 성공했습니다. "avahi-daemon" 데몬이 구성되어 실행 중이 아닌지 검사하는 중 검사: "avahi-daemon" 데몬 구성 안됨 노드 이름 구성됨 상태 ------------ ------------------------ ------------------------ rac2 아니오 성공 rac1 아니오 성공 "avahi-daemon" 프로세스에 대한 데몬 구성 안됨 검사를 성공했습니다. 검사: "avahi-daemon" 데몬 실행 중 아님 노드 이름 실행 중? 상태 ------------ ------------------------ ------------------------ rac2 아니오 성공 rac1 아니오 성공 "avahi-daemon" 프로세스에 대한 데몬 실행 중 아님 검사를 성공했습니다. /dev/shm이 임시 파일 시스템으로 마운트됨에 대한 검사를 시작하는 중... /dev/shm이 임시 파일 시스템으로 마운트됨에 대한 검사를 성공했습니다. /boot 마운트에 대한 검사를 시작하는 중... /boot 마운트에 대한 검사를 성공했습니다. zeroconf 검사에 대한 검사를 시작하는 중... zeroconf 검사에 대한 검사를 성공했습니다. 모든 노드에서 클러스터 서비스 설정에 대한 사전 확인을 실패했습니다. ****************************************************************************************** 다음은 이 세션에서 수정하도록 선택된 수정 가능 필요 조건 목록입니다. ****************************************************************************************** ------------ -------- --------- 검사를 실패했습니다. 노드에서 실패함 재부팅 필요 여부 ------------ -------- --------- 그룹 멤버쉽: dba rac2,rac1 아니오 완전 제한: 최대 열린 파일 기술자 rac2,rac1 아니오 "rac1,rac2" 노드에서 루트 사용자로 "/tmp/CVU_12.1.0.2.0_grid/runfixup.sh"을(를) 실행하여 수동으로 수정 작업을 수행하십시오. "rac1,rac2" 노드에서 "/tmp/CVU_12.1.0.2.0_grid/runfixup.sh" 실행이 완료된 후 ENTER 키를 눌러 계속하십시오.
만약 검증 과정 중에 수정할 부분이 있을 경우, 아래와 같이 runfixup.sh 스크립트를 모든 노드에서 실행해야 합니다.
[root@rac1 ~]# /tmp/CVU_12.1.0.2.0_grid/runfixup.sh All Fix-up operations were completed successfully. [root@rac2 ~]# /tmp/CVU_12.1.0.2.0_grid/runfixup.sh All Fix-up operations were completed successfully.
정상적으로 수정이 되어 테스트를 통과할 경우 아래와 같은 메시지가 나옵니다.
수정: 그룹 멤버쉽: dba 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 적용 가능한 모든 노드에서 "그룹 멤버쉽: dba"이(가) 성공적으로 수정되었습니다. 수정: 완전 제한: 최대 열린 파일 기술자 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 적용 가능한 모든 노드에서 "완전 제한: 최대 열린 파일 기술자"이(가) 성공적으로 수정되었습니다. 적용 가능한 모든 노드에서 수정 작업이 성공적으로 완료되었습니다.
설치를 계속 진행할 수 있으나 준비 사항이 모두 만족되었는지, 수정할 사항이 있는지에 대한 검증을 별도로 수행할 수 있습니다.
검증을 마치고 다시 OUI 화면에서 <다음>을 클릭하면 약간의 설정 확인 과정을 거치고 다음 단계로 넘어갑니다.
네트워크 인터페이스가 정상적으로 인식되는지 확인합니다.
양쪽 노드 간의 인터페이스 이름이 동일하도록 2번 노드 구성 단계에서 수정을 하였다면 왼쪽과 같이 인식됩니다.
만약 노드 간의 인터페이스 이름이 다르다면 인터페이스 이름에 *가 표시되며 이후 검증 스크립트를 통과하지 못합니다.
공용과 전용 인터페이스 구분이 정상적으로 인식되었으면 <다음>을 클릭합니다.
설치 위치인 Oracle Base와 Oracle Home 경로가 정상적인지 확인합니다.
Cluster Registry 저장 영역 유형은 'Oracle Automatic Storage Management'를 선택하고 SYSASM 비밀번호를 입력한 후 <다음>을 클릭합니다.
CRS와 GIMR이 저장되는 ASM 디스크 그룹을 생성하는 단계입니다.
디스크 그룹 이름은 "CRS"로 입력하고, 중복성은 '일반'을 선택합니다.
후보 디스크에서 CRS1~3번 디스크를 선택하고 <다음>을 클릭합니다.
인벤토리 경로와 oraInventory 그룹을 확인하고 <다음>을 클릭합니다.
인벤토리 경로는 Oracle Base 경로 밖에 지정됩니다.
설치 과정 중에 cluster 구성을 위해 root 유저로 스크립트를 수행하는 부분이 있습니다.
12c부터는 자동으로 root 유저 스크립트를 실행할 수 있도록 지원합니다.
'자동으로 구성 스크립트 실행'을 체크하고 '"루트" 사용자 인증서 사용'을 선택하고 root 유저 암호를 입력한 후에 <다음>을 클릭합니다.
설치 필요 조건을 검사하는 단계입니다.
이상이 없을 경우 검사를 마친 후 다음 단계로 자동으로 넘어갑니다.
설치 직전에 지금까지 선택한 내용을 확인할 수 있는 요약 화면입니다.
정상적으로 저장되었는지 확인하고 이상이 없으면 <설치>를 클릭합니다.
먼저 로컬 노드에 설치가 진행됩니다.
로컬 노드 설치가 완료되면 원격 노드로 파일이 복제되고 설치가 진행됩니다.
바이너리 파일의 설치가 완료되면 root 유저로 실행하는 스크립트의 진행 여부를 뭍는 창이 나옵니다.
계속 설치를 진행하기 위해 <예>를 선택합니다.
만약 수동으로 진행할 경우에는 root 유저에서 수행할 스크립트 2개가 나오며, 화면에 나오는 순서대로 스크립트를 실행하면 됩니다.
[root@rac1 ~]# /u01/app/oraInventory/orainstRoot.sh 다음 권한 변경 중/u01/app/oraInventory. 그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다. 월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다. 그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall. 스크립트 실행이 완료되었습니다.
1번 노드 작업 완료 후 2번 수행
[root@rac2 ~]# /u01/app/oraInventory/orainstRoot.sh 다음 권한 변경 중/u01/app/oraInventory. 그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다. 월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다. 그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall. 스크립트 실행이 완료되었습니다.
[root@rac1 ~]# /u01/app/12.1.0/grid/root.sh Performing root user operation. The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/12.1.0/grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Copying dbhome to /usr/local/bin ... Copying oraenv to /usr/local/bin ... Copying coraenv to /usr/local/bin ... Creating /etc/oratab file... Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/12.1.0/grid/crs/install/crsconfig_params 2017/04/28 09:19:06 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector. 2017/04/28 09:19:37 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer (TFA) Collector. OLR initialization - successful root wallet root wallet cert root cert export peer wallet profile reader wallet pa wallet peer wallet keys pa wallet keys peer cert request pa cert request peer cert pa cert peer root cert TP profile reader root cert TP pa root cert TP peer pa cert TP pa peer cert TP profile reader pa cert TP profile reader peer cert TP peer user cert pa user cert 2017/04/28 09:20:42 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf' CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-2672: 'ora.evmd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.mdnsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.gipcd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.gipcd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac1')이 성공했습니다. ASM이 성공적으로 생성되고 시작되었습니다. 디스크 그룹 CRS이(가) 성공적으로 생성되었습니다. CRS-2672: 'ora.crf'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.storage'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.storage' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.crf' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crsd' 시작('rac1')이 성공했습니다. CRS-4256: 프로파일을 업데이트하는 중 선호 디스크 e0438474d0f04fc3bff1ccc5131bb541이(가) 성공적으로 추가되었습니다. 선호 디스크 e4957fad99c94f46bf484e5b0773608a이(가) 성공적으로 추가되었습니다. 선호 디스크 39e306a588d04ff8bfcc5a18b68ca6a9이(가) 성공적으로 추가되었습니다. 선호 디스크 그룹을 +CRS(으)로 성공적으로 바꾸었습니다. CRS-4256: 프로파일을 업데이트하는 중 CRS-4266: 선택 파일이 성공적으로 바뀌었습니다. ## STATE File Universal Id File Name Disk group -- ----- ----------------- --------- --------- 1. ONLINE e0438474d0f04fc3bff1ccc5131bb541 (ORCL:CRS1) [CRS] 2. ONLINE e4957fad99c94f46bf484e5b0773608a (ORCL:CRS2) [CRS] 3. ONLINE 39e306a588d04ff8bfcc5a18b68ca6a9 (ORCL:CRS3) [CRS] 3개의 선호 디스크를 찾았습니다. CRS-2791: 'rac1'에서 Oracle 고가용성 서비스가 관리하는 리소스의 종료 시작 중 CRS-2673: 'ora.crsd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.crsd' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.crf'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.ctssd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.evmd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.storage'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.mdnsd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2673: 'ora.gpnpd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.storage' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.asm'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.crf' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.ctssd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.evmd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.gpnpd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.mdnsd' 정지('rac1')가 성공했습니다. CRS-2677: 'ora.asm' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.cluster_interconnect.haip'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.cluster_interconnect.haip' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.cssd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.cssd' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.gipcd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.gipcd' 정지('rac1')가 성공했습니다. CRS-2793: 'rac1'에서 Oracle 고가용성 서비스가 관리하는 리소스 종료가 완료되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 관리하는 리소스를 시작하는 중 CRS-2672: 'ora.mdnsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.evmd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gipcd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gipcd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cluster_interconnect.haip'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.ctssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.ctssd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cluster_interconnect.haip' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.asm'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.storage'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.storage' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crf'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crf' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crsd' 시작('rac1')이 성공했습니다. CRS-6023: Oracle Cluster Ready Services가 관리하는 리소스를 시작하는 중 CRS-6017: 서버에 대한 리소스 자동 시작을 처리하는 중: rac1 CRS-6016: rac1 서버에 대한 리소스 자동 시작이 완료되었습니다. CRS-6024: Oracle Cluster Ready Services가 관리하는 리소스의 시작을 완료했습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. 2017/04/28 09:26:07 CLSRSC-343: Successfully started Oracle Clusterware stack CRS-2672: 'ora.asm'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.CRS.dg'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.CRS.dg' 시작('rac1')이 성공했습니다. 2017/04/28 09:27:14 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ... succeeded
1번 노드 작업 완료 후 2번 수행
[root@rac2 ~]# /u01/app/12.1.0/grid/root.sh Performing root user operation. The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/12.1.0/grid Enter the full pathname of the local bin directory: [/usr/local/bin]: Copying dbhome to /usr/local/bin ... Copying oraenv to /usr/local/bin ... Copying coraenv to /usr/local/bin ... Creating /etc/oratab file... Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/12.1.0/grid/crs/install/crsconfig_params 2017/04/28 09:28:13 CLSRSC-4001: Installing Oracle Trace File Analyzer (TFA) Collector. 2017/04/28 09:28:45 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer (TFA) Collector. OLR initialization - successful 2017/04/28 09:30:17 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.conf' CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-4133: Oracle 고가용성 서비스가 정지되었습니다. CRS-4123: Oracle 고가용성 서비스가 관리하는 리소스를 시작하는 중 CRS-2672: 'ora.mdnsd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.evmd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac2')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.gipcd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gipcd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac2')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.cluster_interconnect.haip'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.ctssd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.ctssd' 시작('rac2')이 성공했습니다. CRS-2676: 'ora.cluster_interconnect.haip' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.asm'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.storage'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.storage' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.crf'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crf' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.crsd'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crsd' 시작('rac2')이 성공했습니다. CRS-6017: 서버에 대한 리소스 자동 시작을 처리하는 중: rac2 CRS-2672: 'ora.net1.network'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.net1.network' 시작('rac2')이 성공했습니다. CRS-2672: 'ora.ons'을(를) 'rac2'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.ons' 시작('rac2')이 성공했습니다. CRS-6016: rac2 서버에 대한 리소스 자동 시작이 완료되었습니다. CRS-6024: Oracle Cluster Ready Services가 관리하는 리소스의 시작을 완료했습니다. CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. 2017/04/28 09:34:01 CLSRSC-343: Successfully started Oracle Clusterware stack 2017/04/28 09:34:20 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ... succeeded
자동으로 root 스크립트가 수행됩니다.
만약 수동으로 진행할 경우, root 실행 스크립트는 한쪽 노드에서 작업이 모두 완료된 후에 다음 노드에서 진행하는 방식으로 순차적으로 진행해야 합니다.
12.1.0.2 버전부터는 Grid Infrastructure Management Repository (mgmtdb)가 필수로 생성됩니다.
GI 설치가 모두 완료되었으면 <닫기>를 클릭합니다.
[oracle@rac1 ~]$ crsctl stat res -t -------------------------------------------------------------------------------- Name Target State Server State details -------------------------------------------------------------------------------- Local Resources -------------------------------------------------------------------------------- ora.CRS.dg ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE ora.LISTENER.lsnr ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE ora.asm ONLINE ONLINE rac1 Started,STABLE ONLINE ONLINE rac2 Started,STABLE ora.net1.network ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE ora.ons ONLINE ONLINE rac1 STABLE ONLINE ONLINE rac2 STABLE -------------------------------------------------------------------------------- Cluster Resources -------------------------------------------------------------------------------- ora.LISTENER_SCAN1.lsnr 1 ONLINE ONLINE rac1 STABLE ora.MGMTLSNR 1 ONLINE ONLINE rac1 169.254.84.89 10.0.5 .101,STABLE ora.cvu 1 ONLINE ONLINE rac1 STABLE ora.mgmtdb 1 ONLINE ONLINE rac1 Open,STABLE ora.oc4j 1 ONLINE ONLINE rac1 STABLE ora.rac1.vip 1 ONLINE ONLINE rac1 STABLE ora.rac2.vip 1 ONLINE ONLINE rac2 STABLE ora.scan1.vip 1 ONLINE ONLINE rac1 STABLE --------------------------------------------------------------------------------
GI 설치 후 작동중인 resource를 화인할 수 있습니다.