1. Grid 설치 사전 설정
root 유저로 수행
cd <설치 파일 압축해제 경로>/grid/rpm/ rpm -ivh cvuqdisk-1.0.9-1.rpm scp cvuqdisk-1.0.9-1.rpm root@[HOST_NAME2]:/tmp ssh root@[HOST_NAME2] cd /tmp rpm -ivh cvuqdisk-1.0.9-1.rpm
[root@rac1 ~]# cd /media/sf_oracle/grid/rpm [root@rac1 rpm]# rpm -ivh cvuqdisk-1.0.9-1.rpm 준비 중... ########################################### [100%] Using default group oinstall to install package 1:cvuqdisk ########################################### [100%] [root@rac1 rpm]# scp cvuqdisk-1.0.9-1.rpm root@rac2:/tmp The authenticity of host 'rac2 (10.0.1.102)' can't be established. RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'rac2,10.0.1.102' (RSA) to the list of known hosts. root@rac2's password: cvuqdisk-1.0.9-1.rpm 100% 8288 8.1KB/s 00:00 [root@rac1 rpm]# ssh root@rac2 root@rac2's password: Last login: Fri Apr 5 18:11:42 2019 from 10.0.1.1 [root@rac2 ~]# cd /tmp [root@rac2 tmp]# rpm -ivh cvuqdisk-1.0.9-1.rpm 준비 중... ########################################### [100%] Using default group oinstall to install package 1:cvuqdisk ########################################### [100%]
grid 유저로 수행
cd <설치 파일 압축해제 경로>/grid/sshsetup ./sshUserSetup.sh -user [USER_NAME] -hosts "[HOST_NAME1] [HOST_NAME2]" -noPromptPassphrase -advanced
[grid@+ASM1 ~]$ cd /media/sf_oracle/grid/sshsetup [grid@+ASM1 sshsetup]$ ./sshUserSetup.sh -user grid -hosts "rac1 rac2" -noPromptPassphrase -advanced The output of this script is also logged into /tmp/sshUserSetup_2019-04-05-18-29-24.log Hosts are rac1 rac2 user is grid Platform:- Linux Checking if the remote hosts are reachable PING rac1 (10.0.1.101) 56(84) bytes of data. 64 bytes from rac1 (10.0.1.101): icmp_seq=1 ttl=64 time=0.027 ms 64 bytes from rac1 (10.0.1.101): icmp_seq=2 ttl=64 time=0.060 ms 64 bytes from rac1 (10.0.1.101): icmp_seq=3 ttl=64 time=0.044 ms 64 bytes from rac1 (10.0.1.101): icmp_seq=4 ttl=64 time=0.041 ms 64 bytes from rac1 (10.0.1.101): icmp_seq=5 ttl=64 time=0.047 ms --- rac1 ping statistics --- 5 packets transmitted, 5 received, 0% packet loss, time 4002ms rtt min/avg/max/mdev = 0.027/0.043/0.060/0.013 ms PING rac2 (10.0.1.102) 56(84) bytes of data. 64 bytes from rac2 (10.0.1.102): icmp_seq=1 ttl=64 time=0.392 ms 64 bytes from rac2 (10.0.1.102): icmp_seq=2 ttl=64 time=0.443 ms 64 bytes from rac2 (10.0.1.102): icmp_seq=3 ttl=64 time=0.483 ms 64 bytes from rac2 (10.0.1.102): icmp_seq=4 ttl=64 time=0.439 ms 64 bytes from rac2 (10.0.1.102): icmp_seq=5 ttl=64 time=0.893 ms --- rac2 ping statistics --- 5 packets transmitted, 5 received, 0% packet loss, time 4006ms rtt min/avg/max/mdev = 0.392/0.530/0.893/0.183 ms Remote host reachability check succeeded. The following hosts are reachable: rac1 rac2. The following hosts are not reachable: . All hosts are reachable. Proceeding further... firsthost rac1 numhosts 2 The script will setup SSH connectivity from the host rac1 to all the remote hosts. After the script is executed, the user can use SSH to run commands on the remote hosts or copy files between this host rac1 and the remote hosts without being prompted for passwords or confirmations. NOTE 1: As part of the setup procedure, this script will use ssh and scp to copy files between the local host and the remote hosts. Since the script does not store passwords, you may be prompted for the passwords during the execution of the script whenever ssh or scp is invoked. NOTE 2: AS PER SSH REQUIREMENTS, THIS SCRIPT WILL SECURE THE USER HOME DIRECTORY AND THE .ssh DIRECTORY BY REVOKING GROUP AND WORLD WRITE PRIVILEDGES TO THESE directories. Do you want to continue and let the script make the above mentioned changes (yes/no)? yes The user chose yes User chose to skip passphrase related questions. Creating .ssh directory on local host, if not present already Creating authorized_keys file on local host Changing permissions on authorized_keys to 644 on local host Creating known_hosts file on local host Changing permissions on known_hosts to 644 on local host Creating config file on local host If a config file exists already at /home/grid/.ssh/config, it would be backed up to /home/grid/.ssh/config.backup. Removing old private/public keys on local host Running SSH keygen on local host with empty passphrase Generating public/private rsa key pair. Your identification has been saved in /home/grid/.ssh/id_rsa. Your public key has been saved in /home/grid/.ssh/id_rsa.pub. The key fingerprint is: 15:a9:b4:5a:72:7d:bd:bc:4a:5f:89:a7:55:df:3d:07 grid@rac1 The key's randomart image is: +--[ RSA 1024]----+ | .. | | . .. | | . +. . | | . =.. . . | | =S . .E..| | . +.*| | .. **| | . .=.o| | .o. | +-----------------+ Creating .ssh directory and setting permissions on remote host rac1 THE SCRIPT WOULD ALSO BE REVOKING WRITE PERMISSIONS FOR group AND others ON THE HOME DIRECTORY FOR grid. THIS IS AN SSH REQUIREMENT. The script would create ~grid/.ssh/config file on remote host rac1. If a config file exists already at ~grid/.ssh/config, it would be backed up to ~grid/.ssh/config.backup. The user may be prompted for a password here since the script would be running SSH on host rac1. Warning: Permanently added 'rac1,10.0.1.101' (RSA) to the list of known hosts. grid@rac1's password: Done with creating .ssh directory and setting permissions on remote host rac1. Creating .ssh directory and setting permissions on remote host rac2 THE SCRIPT WOULD ALSO BE REVOKING WRITE PERMISSIONS FOR group AND others ON THE HOME DIRECTORY FOR grid. THIS IS AN SSH REQUIREMENT. The script would create ~grid/.ssh/config file on remote host rac2. If a config file exists already at ~grid/.ssh/config, it would be backed up to ~grid/.ssh/config.backup. The user may be prompted for a password here since the script would be running SSH on host rac2. Warning: Permanently added 'rac2,10.0.1.102' (RSA) to the list of known hosts. grid@rac2's password: Done with creating .ssh directory and setting permissions on remote host rac2. Copying local host public key to the remote host rac1 The user may be prompted for a password or passphrase here since the script would be using SCP for host rac1. grid@rac1's password: Done copying local host public key to the remote host rac1 Copying local host public key to the remote host rac2 The user may be prompted for a password or passphrase here since the script would be using SCP for host rac2. grid@rac2's password: Done copying local host public key to the remote host rac2 Creating keys on remote host rac1 if they do not exist already. This is required to setup SSH on host rac1. Creating keys on remote host rac2 if they do not exist already. This is required to setup SSH on host rac2. Generating public/private rsa key pair. Your identification has been saved in .ssh/id_rsa. Your public key has been saved in .ssh/id_rsa.pub. The key fingerprint is: 6a:5c:65:a6:ec:39:18:91:2e:3c:0e:33:b2:ec:1d:e5 grid@rac2 The key's randomart image is: +--[ RSA 1024]----+ | | | . | | o + | | . . o = | |. + +.o S | |.o =o+ * . | |.. ..E= + | |. . .. . | | . . | +-----------------+ Updating authorized_keys file on remote host rac1 Updating known_hosts file on remote host rac1 Updating authorized_keys file on remote host rac2 Updating known_hosts file on remote host rac2 cat: /home/grid/.ssh/known_hosts.tmp: 그런 파일이나 디렉터리가 없습니다 cat: /home/grid/.ssh/authorized_keys.tmp: 그런 파일이나 디렉터리가 없습니다 SSH setup is complete. ------------------------------------------------------------------------ Verifying SSH setup =================== The script will now run the date command on the remote nodes using ssh to verify if ssh is setup correctly. IF THE SETUP IS CORRECTLY SETUP, THERE SHOULD BE NO OUTPUT OTHER THAN THE DATE AND SSH SHOULD NOT ASK FOR PASSWORDS. If you see any output other than date or are prompted for the password, ssh is not setup correctly and you will need to resolve the issue and set up ssh again. The possible causes for failure could be: 1. The server settings in /etc/ssh/sshd_config file do not allow ssh for user grid. 2. The server may have disabled public key based authentication. 3. The client public key on the server may be outdated. 4. ~grid or ~grid/.ssh on the remote host may not be owned by grid. 5. User may not have passed -shared option for shared remote users or may be passing the -shared option for non-shared remote users. 6. If there is output in addition to the date, but no password is asked, it may be a security alert shown as part of company policy. Append the additional text to the <OMS HOME>/sysman/prov/resources/ignoreMessages.txt file. ------------------------------------------------------------------------ --rac1:-- Running /usr/bin/ssh -x -l grid rac1 date to verify SSH connectivity has been setup from local host to rac1. IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL. Please note that being prompted for a passphrase may be OK but being prompted for a password is ERROR. 2019. 04. 05. (금) 18:29:47 KST ------------------------------------------------------------------------ --rac2:-- Running /usr/bin/ssh -x -l grid rac2 date to verify SSH connectivity has been setup from local host to rac2. IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL. Please note that being prompted for a passphrase may be OK but being prompted for a password is ERROR. 2019. 04. 05. (금) 18:29:47 KST ------------------------------------------------------------------------ ------------------------------------------------------------------------ Verifying SSH connectivity has been setup from rac1 to rac1 IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL. bash: -c: line 0: unexpected EOF while looking for matching `"' bash: -c: line 1: syntax error: unexpected end of file ------------------------------------------------------------------------ ------------------------------------------------------------------------ Verifying SSH connectivity has been setup from rac1 to rac2 IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL. bash: -c: line 0: unexpected EOF while looking for matching `"' bash: -c: line 1: syntax error: unexpected end of file ------------------------------------------------------------------------ -Verification from complete- SSH verification complete.
grid 유저로 모든 노드에서 확인
ssh [HOST_NAME1] date ssh [HOST_NAME2] date ssh [PRIVATE_NAME1] date ssh [PRIVATE_NAME2]-priv date
[grid@+ASM1 ~]$ ssh rac1 date 2019. 04. 05. (금) 18:31:12 KST [grid@+ASM1 ~]$ ssh rac2 date 2019. 04. 05. (금) 18:31:15 KST [grid@+ASM1 ~]$ ssh rac1-priv date The authenticity of host 'rac1-priv (10.0.5.101)' can't be established. RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'rac1-priv,10.0.5.101' (RSA) to the list of known hosts. 2019. 04. 05. (금) 18:31:22 KST [grid@+ASM1 ~]$ ssh rac2-priv date The authenticity of host 'rac2-priv (10.0.5.102)' can't be established. RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'rac2-priv,10.0.5.102' (RSA) to the list of known hosts. 2019. 04. 05. (금) 18:31:27 KST
[grid@+ASM2 ~]$ ssh rac1 date 2019. 04. 05. (금) 18:31:30 KST [grid@+ASM2 ~]$ ssh rac2 date 2019. 04. 05. (금) 18:31:33 KST [grid@+ASM2 ~]$ ssh rac1-priv date The authenticity of host 'rac1-priv (10.0.5.101)' can't be established. RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'rac1-priv,10.0.5.101' (RSA) to the list of known hosts. 2019. 04. 05. (금) 18:31:40 KST [grid@+ASM2 ~]$ ssh rac2-priv date The authenticity of host 'rac2-priv (10.0.5.102)' can't be established. RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added 'rac2-priv,10.0.5.102' (RSA) to the list of known hosts. 2019. 04. 05. (금) 18:31:45 KST
grid 유저로 모든 노드에서 수행
mkdir -p /u01/app/oraInventory chmod -R 775 /u01/app/oraInventory
[grid@+ASM1 ~]$ mkdir -p /u01/app/oraInventory [grid@+ASM1 ~]$ chmod -R 775 /u01/app/oraInventory [grid@+ASM1 ~]$ ls -ltra /u01/app/oraInventory 합계 8 drwxrwxr-x. 2 grid oinstall 4096 2019-04-05 18:33 . drwxrwx---. 5 grid oinstall 4096 2019-04-05 18:33 ..
[grid@+ASM2 ~]$ mkdir -p /u01/app/oraInventory [grid@+ASM2 ~]$ chmod -R 775 /u01/app/oraInventory [grid@+ASM2 ~]$ ls -ltra /u01/app/oraInventory 합계 8 drwxrwx---. 5 grid oinstall 4096 2019-04-05 18:33 .. drwxrwxr-x. 2 grid oinstall 4096 2019-04-05 18:33 .
2. 설치 전 검증
grid 유저로 수행
cd <설치 파일 압축해제 경로>/grid ./runcluvfy.sh stage -pre crsinst -n [HOST_NAME1],[HOST_NAME2] -fixup -verbose
[grid@+ASM1 ~]$ cd /media/sf_oracle/grid [grid@+ASM1 grid]$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose 클러스터 서비스 설정에 대한 사전 확인 수행 노드 연결 가능성을 검사하는 중... 검사: "rac1" 노드에서의 노드 연결 가능성 대상 노드 연결 가능? ------------------------------------ ------------------------ rac2 예 rac1 예 결과: "rac1" 노드에서 노드 연결 가능성 검사를 성공했습니다. 사용자 equivalence를 검사하는 중... 검사: 사용자 "grid"에 대한 사용자 equivalence 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: 사용자 "grid"에 대한 사용자 equivalence 검사를 성공했습니다. 노드 연결을 검사하는 중... 호스트 구성 파일 확인 중... 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 호스트 구성 파일 확인을 성공했습니다. "rac2" 노드에 대한 인터페이스 정보 이름 IP 주소 서브넷 게이트웨이 Def. 게이트웨이 HW 주소 MTU ------ --------------- --------------- --------------- --------------- ----------------- ------ eth0 10.0.1.102 10.0.1.0 0.0.0.0 10.0.1.1 08:00:27:F4:80:BB 1500 eth1 10.0.5.102 10.0.5.0 0.0.0.0 10.0.1.1 08:00:27:B8:4E:0E 1500 "rac1" 노드에 대한 인터페이스 정보 이름 IP 주소 서브넷 게이트웨이 Def. 게이트웨이 HW 주소 MTU ------ --------------- --------------- --------------- --------------- ----------------- ------ eth0 10.0.1.101 10.0.1.0 0.0.0.0 10.0.1.1 08:00:27:9C:B9:81 1500 eth1 10.0.5.101 10.0.5.0 0.0.0.0 10.0.1.1 08:00:27:CB:58:2B 1500 검사: "10.0.1.0" 서브넷에 대한 노드 연결 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac2[10.0.1.102] rac1[10.0.1.101] 예 결과: rac2,rac1개의 노드를 사용하는 "10.0.1.0" 서브넷에 대한 노드 연결을 성공했습니다. 검사: "10.0.1.0" 서브넷의 TCP 접속 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1:10.0.1.101 rac2:10.0.1.102 성공 결과: "10.0.1.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. 검사: "10.0.5.0" 서브넷에 대한 노드 연결 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac2[10.0.5.102] rac1[10.0.5.101] 예 결과: rac2,rac1개의 노드를 사용하는 "10.0.5.0" 서브넷에 대한 노드 연결을 성공했습니다. 검사: "10.0.5.0" 서브넷의 TCP 접속 소스 대상 접속됨? ------------------------------ ------------------------------ ---------------- rac1:10.0.5.101 rac2:10.0.5.102 성공 결과: "10.0.5.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. "10.0.1.0" 서브넷에서 발견된 VIP 후보로 적합한 인터페이스: rac2 eth0:10.0.1.102 rac1 eth0:10.0.1.101 "10.0.5.0" 서브넷에서 발견된 전용 상호 접속 후보로 적합한 인터페이스: rac2 eth1:10.0.5.102 rac1 eth1:10.0.5.101 서브넷 마스크 일관성 확인 중... "10.0.1.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. "10.0.5.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. 서브넷 마스크 일관성 검사를 성공했습니다. 결과: 노드 연결 검사를 성공했습니다. 멀티캐스트 통신을 검사하는 중... 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.1.0" 서브넷을 검사하는 중... 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.1.0" 서브넷 검사를 성공했습니다. 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.5.0" 서브넷을 검사하는 중... 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.5.0" 서브넷 검사를 성공했습니다. 멀티캐스트 통신 검사를 성공했습니다. ASMLib 구성을 검사하는 중입니다. 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 결과: ASMLib 구성 검사를 성공했습니다. 검사: 총 메모리 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 1.9522GB (2047044.0KB) 1.5GB (1572864.0KB) 성공 rac1 1.9522GB (2047044.0KB) 1.5GB (1572864.0KB) 성공 결과: 총 메모리 검사를 성공했습니다. 검사: 사용 가능한 메모리 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 1.8518GB (1941788.0KB) 50MB (51200.0KB) 성공 rac1 1.725GB (1808800.0KB) 50MB (51200.0KB) 성공 결과: 사용 가능한 메모리 검사를 성공했습니다. 검사: 교체 공간 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4GB (4194300.0KB) 2.9283GB (3070566.0KB) 성공 rac1 4GB (4194300.0KB) 2.9283GB (3070566.0KB) 성공 결과: 교체 공간 검사를 성공했습니다. 검사: "rac2:/tmp"에 대한 여유 디스크 공간 경로 노드 이름 마운트 위치 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ------------ ------------ /tmp rac2 / 22.0244GB 1GB 성공 결과: "rac2:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다. 검사: "rac1:/tmp"에 대한 여유 디스크 공간 경로 노드 이름 마운트 위치 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ------------ ------------ /tmp rac1 / 22.0056GB 1GB 성공 결과: "rac1:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다. 검사: "grid"에 대한 사용자 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함(54322) rac1 성공 존재함(54322) UID 값이 54322인 다중 사용자를 검사하는 중 결과: UID 값이 54322인 다중 사용자 검사를 성공했습니다. 결과: "grid"에 대한 사용자 존재 여부 검사를 성공했습니다. 검사: "oinstall"에 대한 그룹 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함 rac1 성공 존재함 결과: "oinstall"에 대한 그룹 존재 여부 검사를 성공했습니다. 검사: "dba"에 대한 그룹 존재 여부 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재함 rac1 성공 존재함 결과: "dba"에 대한 그룹 존재 여부 검사를 성공했습니다. 검사: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 노드 이름 사용자가 존재함 그룹이 존재함 그룹의 사용자 기본 상태 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 예 예 예 예 성공 rac1 예 예 예 예 성공 결과: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 검사를 성공했습니다. 검사: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 노드 이름 사용자가 존재함 그룹이 존재함 그룹의 사용자 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 예 예 예 성공 rac1 예 예 예 성공 결과: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 검사를 성공했습니다. 검사: 실행 레벨 노드 이름 실행 레벨 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 3 3,5 성공 rac1 5 3,5 성공 결과: 실행 레벨 검사를 성공했습니다. 검사: "최대 열린 파일 기술자"에 대한 완전 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 완전 65536 65536 성공 rac1 완전 65536 65536 성공 결과: "최대 열린 파일 기술자"에 대한 완전 제한 검사를 성공했습니다. 검사: "최대 열린 파일 기술자"에 대한 부분 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 부분 65536 1024 성공 rac1 부분 65536 1024 성공 결과: "최대 열린 파일 기술자"에 대한 부분 제한 검사를 성공했습니다. 검사: "최대 사용자 프로세스"에 대한 완전 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 완전 16384 16384 성공 rac1 완전 16384 16384 성공 결과: "최대 사용자 프로세스"에 대한 완전 제한 검사를 성공했습니다. 검사: "최대 사용자 프로세스"에 대한 부분 제한 노드 이름 유형 사용 가능 필수 상태 ---------------- ------------ ------------ ------------ ---------------- rac2 부분 16384 2047 성공 rac1 부분 16384 2047 성공 결과: "최대 사용자 프로세스"에 대한 부분 제한 검사를 성공했습니다. 검사: 시스템 구조 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 x86_64 x86_64 성공 rac1 x86_64 x86_64 성공 결과: 시스템 구조 검사를 성공했습니다. 검사: 커널 버전 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 4.1.12-124.16.4.el6uek.x86_64 2.6.32 성공 rac1 4.1.12-124.16.4.el6uek.x86_64 2.6.32 성공 결과: 커널 버전 검사를 성공했습니다. 검사: "semmsl"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 250 250 250 성공 rac1 250 250 250 성공 결과: "semmsl"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semmns"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 32000 32000 32000 성공 rac1 32000 32000 32000 성공 결과: "semmns"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semopm"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 100 100 100 성공 rac1 100 100 100 성공 결과: "semopm"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "semmni"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 128 128 128 성공 rac1 128 128 128 성공 결과: "semmni"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmmax"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 4398046511104 4398046511104 1048086528 성공 rac1 4398046511104 4398046511104 1048086528 성공 결과: "shmmax"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmmni"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 4096 4096 4096 성공 rac1 4096 4096 4096 성공 결과: "shmmni"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "shmall"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 4294967296 4294967296 2097152 성공 rac1 4294967296 4294967296 2097152 성공 결과: "shmall"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "file-max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 6815744 6815744 6815744 성공 rac1 6815744 6815744 6815744 성공 결과: "file-max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "ip_local_port_range"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 between 9000.0 & 65500.0 between 9000.0 & 65500.0 between 9000.0 & 65500.0 성공 rac1 between 9000.0 & 65500.0 between 9000.0 & 65500.0 between 9000.0 & 65500.0 성공 결과: "ip_local_port_range"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "rmem_default"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 262144 262144 262144 성공 rac1 262144 262144 262144 성공 결과: "rmem_default"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "rmem_max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 4194304 4194304 4194304 성공 rac1 4194304 4194304 4194304 성공 결과: "rmem_max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "wmem_default"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 262144 262144 262144 성공 rac1 262144 262144 262144 성공 결과: "wmem_default"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "wmem_max"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 1048576 1048576 1048576 성공 rac1 1048576 1048576 1048576 성공 결과: "wmem_max"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "aio-max-nr"에 대한 커널 매개변수 노드 이름 현재 구성됨 필수 상태 설명 ---------------- ------------ ------------ ------------ ------------ ------------ rac2 1048576 1048576 1048576 성공 rac1 1048576 1048576 1048576 성공 결과: "aio-max-nr"에 대한 커널 매개변수 검사를 성공했습니다. 검사: "binutils"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 binutils-2.20.51.0.2-5.48.el6 binutils-2.20.51.0.2 성공 rac1 binutils-2.20.51.0.2-5.48.el6 binutils-2.20.51.0.2 성공 결과: "binutils"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "compat-libcap1"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 compat-libcap1-1.10-1 compat-libcap1-1.10 성공 rac1 compat-libcap1-1.10-1 compat-libcap1-1.10 성공 결과: "compat-libcap1"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 성공 rac1 compat-libstdc++-33(x86_64)-3.2.3-69.el6 compat-libstdc++-33(x86_64)-3.2.3 성공 결과: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libgcc(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libgcc(x86_64)-4.4.7-23.0.1.el6 libgcc(x86_64)-4.4.4 성공 rac1 libgcc(x86_64)-4.4.7-23.0.1.el6 libgcc(x86_64)-4.4.4 성공 결과: "libgcc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libstdc++(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libstdc++(x86_64)-4.4.7-23.0.1.el6 libstdc++(x86_64)-4.4.4 성공 rac1 libstdc++(x86_64)-4.4.7-23.0.1.el6 libstdc++(x86_64)-4.4.4 성공 결과: "libstdc++(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libstdc++-devel(x86_64)-4.4.7-23.0.1.el6 libstdc++-devel(x86_64)-4.4.4 성공 rac1 libstdc++-devel(x86_64)-4.4.7-23.0.1.el6 libstdc++-devel(x86_64)-4.4.4 성공 결과: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "sysstat"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 sysstat-9.0.4-33.el6_9.1 sysstat-9.0.4 성공 rac1 sysstat-9.0.4-33.el6_9.1 sysstat-9.0.4 성공 결과: "sysstat"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "gcc"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 gcc-4.4.7-23.0.1.el6 gcc-4.4.4 성공 rac1 gcc-4.4.7-23.0.1.el6 gcc-4.4.4 성공 결과: "gcc"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "gcc-c++"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 gcc-c++-4.4.7-23.0.1.el6 gcc-c++-4.4.4 성공 rac1 gcc-c++-4.4.7-23.0.1.el6 gcc-c++-4.4.4 성공 결과: "gcc-c++"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "ksh"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 ksh-20120801-37.el6_9 ksh-20100621 성공 rac1 ksh-20120801-37.el6_9 ksh-20100621 성공 결과: "ksh"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "make"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 make-3.81-23.el6 make-3.81 성공 rac1 make-3.81-23.el6 make-3.81 성공 결과: "make"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "glibc(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 glibc(x86_64)-2.12-1.212.0.1.el6 glibc(x86_64)-2.12 성공 rac1 glibc(x86_64)-2.12-1.212.0.1.el6 glibc(x86_64)-2.12 성공 결과: "glibc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 glibc-devel(x86_64)-2.12-1.212.0.1.el6 glibc-devel(x86_64)-2.12 성공 rac1 glibc-devel(x86_64)-2.12-1.212.0.1.el6 glibc-devel(x86_64)-2.12 성공 결과: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libaio(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.107 성공 rac1 libaio(x86_64)-0.3.107-10.el6 libaio(x86_64)-0.3.107 성공 결과: "libaio(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. 검사: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 노드 이름 사용 가능 필수 상태 ------------ ------------------------ ------------------------ ---------- rac2 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.107 성공 rac1 libaio-devel(x86_64)-0.3.107-10.el6 libaio-devel(x86_64)-0.3.107 성공 결과: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다. UID 값이 0인 다중 사용자를 검사하는 중 결과: UID 값이 0인 다중 사용자 검사를 성공했습니다. 검사: 현재 그룹 ID 결과: 현재 그룹 ID 검사를 성공했습니다. 루트 사용자의 기본 그룹 일관성 검사를 시작하는 중입니다. 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 루트 사용자의 기본 그룹에 대한 일관성 검사를 성공했습니다. NTP(Network Time Protocol)를 사용하여 시계 동기화 검사를 시작하는 중... NTP 구성 파일 검사가 시작되었습니다. 노드에서 NTP(Network Time Protocol) 구성 파일을 찾을 수 없습니다. 클러스터 노드에 대한 시간 동기화에 NTP 대신 Oracle CTSS(Cluster Time Synchronization Service)를 사용할 수 있습니다. 실행 중인 NTP 데몬 또는 서비스가 없는 것으로 확인되었습니다. 결과: NTP(Network Time Protocol)를 사용한 시계 동기화 검사를 성공했습니다. 코어 파일 이름 패턴 일관성을 검사하는 중... 코어 파일 이름 패턴 일관성 검사를 성공했습니다. 사용자 "grid"이(가) "root" 그룹에 속해 있지 않은지 확인하는 중입니다. 노드 이름 상태 설명 ------------ ------------------------ ------------------------ rac2 성공 존재하지 않음 rac1 성공 존재하지 않음 결과: 사용자 "grid"이(가) "root" 그룹에 속해 있지 않습니다. 검사를 성공했습니다. 기본 사용자 파일 생성 마스크 검사 노드 이름 사용 가능 필수 설명 ------------ ------------------------ ------------------------ ---------- rac2 0022 0022 성공 rac1 0022 0022 성공 결과: 기본 사용자 파일 생성 마스크 검사를 성공했습니다. 노드에서 "/etc/resolv.conf" 파일의 일관성을 검사하는 중 "/etc/resolv.conf" 파일에서 'domain' 및 'search' 항목이 하나씩만 정의되어 있는지 검사하는 중 "/etc/resolv.conf" 파일에 'domain' 항목과 'search' 항목이 모두 정의되지 않았습니다. "/etc/resolv.conf" 파일의 'domain' 항목이 노드에서 일치하는지 여부를 검사하는 중... "/etc/resolv.conf" 파일의 'domain' 항목이 노드에서 일치합니다. "/etc/resolv.conf" 파일의 'search' 항목이 노드에서 일치하는지 여부를 검사하는 중... "/etc/resolv.conf" 파일의 'search' 항목이 노드에서 일치합니다. 연결할 수 없는 노드에 대한 DNS 응답 시간을 검사하는 중 노드 이름 상태 ------------------------------------ ------------------------ rac2 성공 rac1 성공 모든 노드에서 연결할 수 없는 노드에 대한 DNS 응답 시간이 허용되는 제한 범위에 속합니다. "/etc/resolv.conf" 파일이 노드에서 일치합니다. 검사: 시간대 일관성 결과: 시간대 일관성 검사를 성공했습니다. 클러스터 서비스 설정에 대한 사전 확인을 성공했습니다.
3. Grid 설치 response 파일 설정
grid 유저로 response 파일 수정
cp <설치 파일 압축해제 경로>/grid/response/grid_install.rsp ~/. vi ~/grid_install.rsp
vi ~/grid_install.rsp
oracle.install.responseFileVersion=/oracle/install/rspfmt_crsinstall_response_schema_v11_2_0 ORACLE_HOSTNAME=[HOST_NAME1] INVENTORY_LOCATION=[ORACLE_INVENTORY] SELECTED_LANGUAGES=en,ko oracle.install.option=CRS_CONFIG ORACLE_BASE=[ORACLE_BASE] ORACLE_HOME=[GRID_HOME] oracle.install.asm.OSDBA=asmdba oracle.install.asm.OSOPER=asmoper oracle.install.asm.OSASM=asmadmin oracle.install.crs.config.gpnp.scanName=[SCAN_NAME] oracle.install.crs.config.gpnp.scanPort=[LISTENER_PORT] oracle.install.crs.config.clusterName=[CLUSTER_NAME] oracle.install.crs.config.gpnp.configureGNS=false oracle.install.crs.config.autoConfigureClusterNodeVIP=false oracle.install.crs.config.clusterNodes=[HOST_NAME1]:[VIP_NAME1],[HOST_NAME2]:[VIP_NAME2] oracle.install.crs.config.networkInterfaceList=[PUBLIC_INTERFACE_NAME]:[PUBLIC_SUBNET]:1,[PRIVATE_INTERFACE_NAME]:[PRIVATE_SUBNET]:2 oracle.install.crs.config.storageOption=ASM_STORAGE oracle.install.crs.config.sharedFileSystemStorage.votingDiskRedundancy=EXTERNAL oracle.install.crs.config.sharedFileSystemStorage.ocrRedundancy=EXTERNAL oracle.install.crs.config.useIPMI=false oracle.install.asm.SYSASMPassword=[ASM_PASSWD] oracle.install.asm.diskGroup.name=DATA oracle.install.asm.diskGroup.redundancy=EXTERNAL oracle.install.asm.diskGroup.AUSize=1 oracle.install.asm.diskGroup.disks=/dev/raw/raw6 oracle.install.asm.diskGroup.diskDiscoveryString=/dev/raw/raw* oracle.install.asm.monitorPassword=[HOST_NAME1] oracle.install.asm.upgradeASM=false oracle.installer.autoupdates.option=SKIP_UPDATES
oracle.install.responseFileVersion=/oracle/install/rspfmt_crsinstall_response_schema_v11_2_0 ORACLE_HOSTNAME=rac1 INVENTORY_LOCATION=/u01/app/oraInventory SELECTED_LANGUAGES=en,ko oracle.install.option=CRS_CONFIG ORACLE_BASE=/u01/app/oracle ORACLE_HOME=/u01/app/11.2.0/grid oracle.install.asm.OSDBA=asmdba oracle.install.asm.OSOPER=asmoper oracle.install.asm.OSASM=asmadmin oracle.install.crs.config.gpnp.scanName=rac-scan oracle.install.crs.config.gpnp.scanPort=1521 oracle.install.crs.config.clusterName=rac oracle.install.crs.config.gpnp.configureGNS=false oracle.install.crs.config.autoConfigureClusterNodeVIP=false oracle.install.crs.config.clusterNodes=rac1:rac1-vip,rac2:rac2-vip oracle.install.crs.config.networkInterfaceList=eth0:10.0.1.0:1,eth1:10.0.5.0:2 oracle.install.crs.config.storageOption=ASM_STORAGE oracle.install.crs.config.sharedFileSystemStorage.votingDiskRedundancy=EXTERNAL oracle.install.crs.config.sharedFileSystemStorage.ocrRedundancy=EXTERNAL oracle.install.crs.config.useIPMI=false oracle.install.asm.SYSASMPassword=oracle_4U oracle.install.asm.diskGroup.name=DATA oracle.install.asm.diskGroup.redundancy=EXTERNAL oracle.install.asm.diskGroup.AUSize=1 oracle.install.asm.diskGroup.disks=/dev/raw/raw6 oracle.install.asm.diskGroup.diskDiscoveryString=/dev/raw/raw* oracle.install.asm.monitorPassword=oracle_4U oracle.install.asm.upgradeASM=false oracle.installer.autoupdates.option=SKIP_UPDATES
4. Grid 설치 수행
grid 유저로 수행
cd <설치 파일 압축해제 경로>/grid ./runInstaller -ignorePrereq -silent -force -responseFile ~/grid_install.rsp
[grid@+ASM1 grid]$ cd /media/sf_oracle/grid [grid@+ASM1 grid]$ ./runInstaller -ignorePrereq -silent -force -responseFile ~/grid_install.rsp Oracle Universal Installer 시작 중... 임시 공간 확인 중: 120MB 이상이어야 합니다.. 실제 21508MB 성공 스왑 공간 확인 중: 150MB 이상이어야 합니다.. 실제 4095MB 성공 다음에서 Oracle Universal Installer의 시작을 준비하는 중 /tmp/OraInstall2019-04-05_06-55-41PM. 기다리십시오.[grid@+ASM1 grid]$ 다음 위치에서 이 설치 세션의 로그를 찾을 수 있습니다. /u01/app/oraInventory/logs/installActions2019-04-05_06-55-41PM.log Oracle Grid Infrastructure 11g의 설치을(를) 성공했습니다. 자세한 내용은 '/u01/app/oraInventory/logs/silentInstall2019-04-05_06-55-41PM.log'을(를) 확인하십시오. 루트 사용자로 다음 스크립트를 실행합니다. 1. /u01/app/oraInventory/orainstRoot.sh 2. /u01/app/11.2.0/grid/root.sh 다음 노드에서 /u01/app/oraInventory/orainstRoot.sh을(를) 실행하십시오. [rac1, rac2] 다음 노드에서 /u01/app/11.2.0/grid/root.sh을(를) 실행하십시오. [rac1, rac2] 설치 사용자로 다음 스크립트를 실행하여 구성을 완료하십시오. 1. /u01/app/11.2.0/grid/cfgtoollogs/configToolAllCommands RESPONSE_FILE=<response_file> 참고: 1. 이 스크립트는 설치 프로그램이 실행된 동일한 호스트에서 실행해야 합니다. 2. 이 스크립트에는 비밀번호가 필요한 Configuration Assistant에 대한 작은 비밀번호 속성 파일이 필요합니다(설치 설명서 참조). Successfully Setup Software.
installActions2019-04-05_06-55-41PM.log
silentInstall2019-04-05_06-55-41PM.log5. root 유저 스크립트 수행
root 유저로 실행
/u01/app/oraInventory/orainstRoot.sh
[root@rac1 ~]# /u01/app/oraInventory/orainstRoot.sh 다음 권한 변경 중/u01/app/oraInventory. 그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다. 월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다. 그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall. 스크립트 실행이 완료되었습니다.
[root@rac2 ~]# /u01/app/oraInventory/orainstRoot.sh 다음 권한 변경 중/u01/app/oraInventory. 그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다. 월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다. 그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall. 스크립트 실행이 완료되었습니다.
root 유저로 실행
/u01/app/11.2.0/grid/root.sh
[root@rac1 ~]# /u01/app/11.2.0/grid/root.sh Check /u01/app/11.2.0/grid/install/root_rac1_2019-04-05_19-04-22.log for the output of root script
Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/11.2.0/grid Copying dbhome to /usr/local/bin ... Copying oraenv to /usr/local/bin ... Copying coraenv to /usr/local/bin ... Creating /etc/oratab file... Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params Creating trace directory User ignored Prerequisites during installation Installing Trace File Analyzer OLR initialization - successful root wallet root wallet cert root cert export peer wallet profile reader wallet pa wallet peer wallet keys pa wallet keys peer cert request pa cert request peer cert pa cert peer root cert TP profile reader root cert TP pa root cert TP peer pa cert TP pa peer cert TP profile reader pa cert TP profile reader peer cert TP peer user cert pa user cert Adding Clusterware entries to upstart CRS-2672: Attempting to start 'ora.mdnsd' on 'rac1' CRS-2676: Start of 'ora.mdnsd' on 'rac1' succeeded CRS-2672: Attempting to start 'ora.gpnpd' on 'rac1' CRS-2676: Start of 'ora.gpnpd' on 'rac1' succeeded CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac1' CRS-2672: Attempting to start 'ora.gipcd' on 'rac1' CRS-2676: Start of 'ora.cssdmonitor' on 'rac1' succeeded CRS-2676: Start of 'ora.gipcd' on 'rac1' succeeded CRS-2672: Attempting to start 'ora.cssd' on 'rac1' CRS-2672: Attempting to start 'ora.diskmon' on 'rac1' CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded CRS-2676: Start of 'ora.cssd' on 'rac1' succeeded ASM이 성공적으로 생성되고 시작되었습니다. 디스크 그룹 DATA이(가) 성공적으로 생성되었습니다. clscfg: -install mode specified Successfully accumulated necessary OCR keys. Creating OCR keys for user 'root', privgrp 'root'.. Operation successful. CRS-4256: Updating the profile Successful addition of voting disk 7d91b543779a4fdebfc8895c7fda9c05. Successfully replaced voting disk group with +DATA. CRS-4256: Updating the profile CRS-4266: Voting file(s) successfully replaced ## STATE File Universal Id File Name Disk group -- ----- ----------------- --------- --------- 1. ONLINE 7d91b543779a4fdebfc8895c7fda9c05 (/dev/raw/raw6) [DATA] Located 1 voting disk(s). CRS-2672: Attempting to start 'ora.asm' on 'rac1' CRS-2676: Start of 'ora.asm' on 'rac1' succeeded CRS-2672: Attempting to start 'ora.DATA.dg' on 'rac1' CRS-2676: Start of 'ora.DATA.dg' on 'rac1' succeeded [1mConfigure Oracle Grid Infrastructure for a Cluster ... succeeded [0m
[root@rac2 ~]# /u01/app/11.2.0/grid/root.sh Check /u01/app/11.2.0/grid/install/root_rac2_2019-04-05_19-11-19.log for the output of root script
Performing root user operation for Oracle 11g The following environment variables are set as: ORACLE_OWNER= grid ORACLE_HOME= /u01/app/11.2.0/grid Copying dbhome to /usr/local/bin ... Copying oraenv to /usr/local/bin ... Copying coraenv to /usr/local/bin ... Creating /etc/oratab file... Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params Creating trace directory User ignored Prerequisites during installation Installing Trace File Analyzer OLR initialization - successful Adding Clusterware entries to upstart CRS-4402: CSS 데몬이 배타 모드에서 시작되었지만 활성 CSS 데몬이 노드 rac1, 번호 1에서 발견되어 종료 중입니다. An active cluster was found during exclusive startup, restarting to join the cluster [1mConfigure Oracle Grid Infrastructure for a Cluster ... succeeded [0m
6. Grid 설치 후 스크립트 수행
vi $GRID_HOME/cfgtoollogs/cfgrsp.properties 로 response 파일 생성
oracle.assistants.asm|S_ASMPASSWORD=[ASM_PASSWD] oracle.assistants.asm|S_ASMMONITORPASSWORD=[ASM_PASSWD]
oracle.assistants.asm|S_ASMPASSWORD=oracle_4U oracle.assistants.asm|S_ASMMONITORPASSWORD=oracle_4U
grid 유저로 수행
cd $GRID_HOME/cfgtoollogs chmod 600 cfgrsp.properties ./configToolAllCommands RESPONSE_FILE=./cfgrsp.properties
[grid@+ASM1 grid]$ cd $GRID_HOME/cfgtoollogs [grid@+ASM1 cfgtoollogs]$ chmod 600 cfgrsp.properties [grid@+ASM1 cfgtoollogs]$ ./configToolAllCommands RESPONSE_FILE=./cfgrsp.properties Setting the invPtrLoc to /u01/app/11.2.0/grid/oraInst.loc perform - 작업 시작 중인 모드: configure 2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn invoke 정보: Executing ASMCA 2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn invoke 정보: Command /u01/app/11.2.0/grid/bin/asmca -silent -postConfigureASM -oui_internal 2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: ... GenericInternalPlugIn.handleProcess() entered. 2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: ... GenericInternalPlugIn: getting configAssistantParmas. 2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: ... GenericInternalPlugIn: checking secretArguments. 2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: ... GenericInternalPlugIn: starting read loop. 2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Read: SYS_PASSWORD_PROMPT 2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Processing: SYS_PASSWORD_PROMPT for argument tag -sysAsmPassword 2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Read: ASMSNMP_PASSWORD_PROMPT 2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Processing: ASMSNMP_PASSWORD_PROMPT for argument tag -asmMonitorPassword 2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: End of argument passing to stdin 2019. 4. 5 오후 7:18:16 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Read: 2019. 4. 5 오후 7:18:16 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Read: PostConfiguration이 성공적으로 완료되었습니다. 2019. 4. 5 오후 7:18:16 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess 정보: Read: perform - 작업이 완료된 모드: configure 로그 파일을 확인할 수 있습니다./u01/app/11.2.0/grid/cfgtoollogs/oui/configActions2019-04-05_07-16-49-PM.log
################################################### The action configuration is performing ------------------------------------------------------ The plug-in Update Inventory is running /u01/app/11.2.0/grid/oui/bin/runInstaller -nowait -noconsole -waitforcompletion -ignoreSysPrereqs -updateNodeList -silent CRS=true "CLUSTER_NODES={rac1,rac2}" ORACLE_HOME=/u01/app/11.2.0/grid Oracle Universal Installer 시작 중... 스왑 공간 확인 중: 500MB 이상이어야 합니다.. 실제 4076MB 성공 The inventory pointer is located at /etc/oraInst.loc The inventory is located at /u01/app/oraInventory The plug-in Update Inventory has successfully been performed ------------------------------------------------------ ------------------------------------------------------ The plug-in Oracle Net Configuration Assistant is running 명령행 인수 분석: 매개변수 "orahome" = /u01/app/11.2.0/grid 매개변수 "orahnam" = Ora11g_gridinfrahome1 매개변수 "instype" = typical 매개변수 "inscomp" = client,oraclenet,javavm,server,ano 매개변수 "insprtcl" = tcp 매개변수 "cfg" = local 매개변수 "authadp" = NO_VALUE 매개변수 "responsefile" = /u01/app/11.2.0/grid/network/install/netca_typ.rsp 매개변수 "silent" = true 매개변수 "silent" = true 명령행 인수 분석을 완료했습니다. Oracle Net Service 구성: 프로파일 구성이 완료되었습니다. 프로파일 구성이 완료되었습니다. rac1... rac2... Oracle Net 리스너 시작: 리스너가 성공적으로 시작되었습니다. 리스너 구성이 완료되었습니다. Oracle Net Service 구성을 성공했습니다. 종료 코드는 다음과 같습니다. 0 The plug-in Oracle Net Configuration Assistant has successfully been performed ------------------------------------------------------ ------------------------------------------------------ The plug-in Automatic Storage Management Configuration Assistant is running The plug-in Automatic Storage Management Configuration Assistant has successfully been performed ------------------------------------------------------ ------------------------------------------------------ The plug-in Oracle Cluster Verification Utility is running 클러스터 서비스 설정에 대한 사후 확인 수행 노드 연결 가능성을 검사하는 중... "rac1" 노드에서 노드 연결 가능성 검사를 성공했습니다. 사용자 equivalence를 검사하는 중... 사용자 "grid"에 대한 사용자 equivalence 검사를 성공했습니다. 노드 연결을 검사하는 중... 호스트 구성 파일 확인 중... 호스트 구성 파일 확인을 성공했습니다. 검사: "eth0" 인터페이스에 대한 노드 연결 "eth0" 인터페이스에 대한 노드 연결을 성공했습니다. "10.0.1.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. 검사: "eth1" 인터페이스에 대한 노드 연결 "eth1" 인터페이스에 대한 노드 연결을 성공했습니다. "10.0.5.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다. 서브넷 마스크 일관성 확인 중... "10.0.1.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. "10.0.5.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다. 서브넷 마스크 일관성 검사를 성공했습니다. 노드 연결 검사를 성공했습니다. 멀티캐스트 통신을 검사하는 중... 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.1.0" 서브넷을 검사하는 중... 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.1.0" 서브넷 검사를 성공했습니다. 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.5.0" 서브넷을 검사하는 중... 멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.5.0" 서브넷 검사를 성공했습니다. 멀티캐스트 통신 검사를 성공했습니다. 시간대 일관성 검사를 성공했습니다. Oracle 클러스터 선호 디스크 구성을 검사하는 중... ASM 실행 여부 검사를 성공했습니다. ASM이 지정된 모든 노드에서 실행 중입니다. Oracle 클러스터 선호 디스크 구성 검사를 성공했습니다. 클러스터 관리자 무결성을 검사하는 중... CSS 데몬을 검사하는 중... Oracle Cluster Synchronization Services가 온라인입니다. 클러스터 관리자 무결성 검사를 성공했습니다. OCR 위치에 대한 UDev 속성 검사가 시작되었습니다. OCR 위치에 대한 UDev 속성 검사를 성공했습니다. 선호 디스크 위치에 대한 UDev 속성 검사가 시작되었습니다. 선호 디스크 위치에 대한 UDev 속성 검사를 성공했습니다. 기본 사용자 파일 생성 마스크 검사를 성공했습니다. 클러스터 무결성을 검사하는 중... 클러스터 무결성 검사를 성공했습니다. OCR 무결성을 검사하는 중... 클러스터화되지 않은 구성이 없는지 검사하는 중... 모든 노드에 클러스터화되지 않은 로컬 전용 구성이 없습니다. ASM 실행 여부 검사를 성공했습니다. ASM이 지정된 모든 노드에서 실행 중입니다. OCR 구성 파일 "/etc/oracle/ocr.loc"을(를) 검사하는 중... OCR 구성 파일 "/etc/oracle/ocr.loc" 검사를 성공했습니다. 모든 노드에서 사용 가능한 OCR 위치 "+DATA"에 대한 디스크 그룹 NOTE: 이 검사는 OCR 콘텐츠의 무결성을 확인하지 않습니다. OCR 콘텐츠를 확인하려면 권한이 있는 사용자로 'ocrcheck'를 실행하십시오. OCR 무결성 검사를 성공했습니다. CRS 무결성을 검사하는 중... Clusterware 버전 일관성 검사를 성공했습니다. CRS 무결성 검사를 성공했습니다. 노드 응용 프로그램의 존재 여부를 검사하는 중... VIP 노드 응용 프로그램이 존재하는지 검사하는 중(필수) VIP 노드 응용 프로그램 검사를 성공했습니다. NETWORK 노드 응용 프로그램이 존재하는지 검사하는 중(필수) NETWORK 노드 응용 프로그램 검사를 성공했습니다. GSD 노드 응용 프로그램이 존재하는지 검사하는 중(선택 사항) GSD 노드 응용 프로그램이 "rac2,rac1" 노드에서 오프라인 상태입니다. ONS 노드 응용 프로그램이 존재하는지 검사하는 중(선택 사항) ONS 노드 응용 프로그램 검사를 성공했습니다. SCAN(단일 클라이언트 액세스 이름) 검사 중... SCAN 리스너에 대한 TCP 접속을 검사하는 중... SCAN 리스너에 대한 TCP 접속이 모든 클러스터 노드에 존재합니다. "rac-scan"에 대한 이름 분석 설정을 검사하는 중... Checking integrity of name service switch configuration file "/etc/nsswitch.conf" ... All nodes have same "hosts" entry defined in file "/etc/nsswitch.conf" Check for integrity of name service switch configuration file "/etc/nsswitch.conf" passed SCAN VIP 및 리스너 설정 확인을 성공했습니다. OLR 무결성 검사 중... OLR 구성 파일 확인 중... OLR 구성 파일 확인을 성공했습니다. OLR 파일 속성 확인 중... OLR 파일 확인을 성공했습니다. WARNING: 이 검사는 OLR 콘텐츠의 무결성을 확인하지 않습니다. OLR 콘텐츠를 확인하려면 권한이 있는 사용자로 'ocrcheck -local'을 실행하십시오. OLR 무결성 검사를 성공했습니다. 사용자 "grid"이(가) "root" 그룹에 속해 있지 않습니다. 검사를 성공했습니다. 모든 노드에 Clusterware가 설치되었는지 여부를 검사하는 중... Clusterware 설치 검사를 성공했습니다. CTSS 리소스가 모든 노드에서 실행 중인지 여부를 검사하는 중... CTSS 리소스 검사를 성공했습니다. 모든 노드에서 시간 오프셋에 대해 CTSS를 질의하는 중... 시간 오프셋에 대한 CTSS 질의를 성공했습니다. CTSS 상태 검사가 시작되었습니다. CTSS가 활성 상태입니다. 모든 노드에서 시계 시간 오프셋 검사가 계속 진행됩니다. 시계 시간 오프셋 검사를 성공했습니다. Oracle Cluster Time Synchronization Service 검사를 성공했습니다. VIP 구성을 검사하는 중입니다. VIP 서브넷 구성을 검사하는 중입니다. VIP 서브넷 구성 검사를 성공했습니다. VIP 연결 가능성을 검사하는 중 VIP 연결 가능성 검사를 성공했습니다. 클러스터 서비스 설정에 대한 사후 확인을 성공했습니다. The plug-in Oracle Cluster Verification Utility has successfully been performed ------------------------------------------------------ The action configuration has successfully completed ###################################################
7. Grid 설치 결과 확인
클러스터 상태 확인
crsctl stat res -t
[root@rac2 ~]# crsctl stat res -t -------------------------------------------------------------------------------- NAME TARGET STATE SERVER STATE_DETAILS -------------------------------------------------------------------------------- Local Resources -------------------------------------------------------------------------------- ora.DATA.dg ONLINE ONLINE rac1 ONLINE ONLINE rac2 ora.LISTENER.lsnr ONLINE ONLINE rac1 ONLINE ONLINE rac2 ora.asm ONLINE ONLINE rac1 Started ONLINE ONLINE rac2 Started ora.gsd OFFLINE OFFLINE rac1 OFFLINE OFFLINE rac2 ora.net1.network ONLINE ONLINE rac1 ONLINE ONLINE rac2 ora.ons ONLINE ONLINE rac1 ONLINE ONLINE rac2 -------------------------------------------------------------------------------- Cluster Resources -------------------------------------------------------------------------------- ora.LISTENER_SCAN1.lsnr 1 ONLINE ONLINE rac1 ora.cvu 1 ONLINE ONLINE rac1 ora.oc4j 1 ONLINE ONLINE rac1 ora.rac1.vip 1 ONLINE ONLINE rac1 ora.rac2.vip 1 ONLINE ONLINE rac2 ora.scan1.vip 1 ONLINE ONLINE rac1
8. 리스너 추가
grid 유저로 리스너 추가
srvctl add listener -listener LISTENER
{}