1. Grid 설치 사전 설정

root 유저로 수행
cd <설치 파일 압축해제 경로>/grid/rpm/
rpm -ivh cvuqdisk-1.0.9-1.rpm
scp cvuqdisk-1.0.9-1.rpm root@[HOST_NAME2]:/tmp
ssh root@[HOST_NAME2]
cd /tmp
rpm -ivh cvuqdisk-1.0.9-1.rpm
[root@rac1 ~]# cd /media/sf_oracle/grid/rpm

[root@rac1 rpm]# rpm -ivh cvuqdisk-1.0.9-1.rpm
준비 중...               ########################################### [100%]
Using default group oinstall to install package
   1:cvuqdisk               ########################################### [100%]

[root@rac1 rpm]# scp cvuqdisk-1.0.9-1.rpm root@rac2:/tmp
The authenticity of host 'rac2 (10.0.1.102)' can't be established.
RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'rac2,10.0.1.102' (RSA) to the list of known hosts.
root@rac2's password: 
cvuqdisk-1.0.9-1.rpm                                    100% 8288     8.1KB/s   00:00    


[root@rac1 rpm]# ssh root@rac2
root@rac2's password: 
Last login: Fri Apr  5 18:11:42 2019 from 10.0.1.1
[root@rac2 ~]# cd /tmp

[root@rac2 tmp]# rpm -ivh cvuqdisk-1.0.9-1.rpm
준비 중...               ########################################### [100%]
Using default group oinstall to install package
   1:cvuqdisk               ########################################### [100%]


grid 유저로 수행
cd <설치 파일 압축해제 경로>/grid/sshsetup
./sshUserSetup.sh -user [USER_NAME] -hosts "[HOST_NAME1] [HOST_NAME2]" -noPromptPassphrase -advanced
[grid@+ASM1 ~]$ cd /media/sf_oracle/grid/sshsetup

[grid@+ASM1 sshsetup]$ ./sshUserSetup.sh -user grid -hosts "rac1 rac2" -noPromptPassphrase -advanced
The output of this script is also logged into /tmp/sshUserSetup_2019-04-05-18-29-24.log
Hosts are rac1 rac2
user is grid
Platform:- Linux 
Checking if the remote hosts are reachable
PING rac1 (10.0.1.101) 56(84) bytes of data.
64 bytes from rac1 (10.0.1.101): icmp_seq=1 ttl=64 time=0.027 ms
64 bytes from rac1 (10.0.1.101): icmp_seq=2 ttl=64 time=0.060 ms
64 bytes from rac1 (10.0.1.101): icmp_seq=3 ttl=64 time=0.044 ms
64 bytes from rac1 (10.0.1.101): icmp_seq=4 ttl=64 time=0.041 ms
64 bytes from rac1 (10.0.1.101): icmp_seq=5 ttl=64 time=0.047 ms

--- rac1 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4002ms
rtt min/avg/max/mdev = 0.027/0.043/0.060/0.013 ms
PING rac2 (10.0.1.102) 56(84) bytes of data.
64 bytes from rac2 (10.0.1.102): icmp_seq=1 ttl=64 time=0.392 ms
64 bytes from rac2 (10.0.1.102): icmp_seq=2 ttl=64 time=0.443 ms
64 bytes from rac2 (10.0.1.102): icmp_seq=3 ttl=64 time=0.483 ms
64 bytes from rac2 (10.0.1.102): icmp_seq=4 ttl=64 time=0.439 ms
64 bytes from rac2 (10.0.1.102): icmp_seq=5 ttl=64 time=0.893 ms

--- rac2 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4006ms
rtt min/avg/max/mdev = 0.392/0.530/0.893/0.183 ms
Remote host reachability check succeeded.
The following hosts are reachable: rac1 rac2.
The following hosts are not reachable: .
All hosts are reachable. Proceeding further...
firsthost rac1
numhosts 2
The script will setup SSH connectivity from the host rac1 to all
the remote hosts. After the script is executed, the user can use SSH to run
commands on the remote hosts or copy files between this host rac1
and the remote hosts without being prompted for passwords or confirmations.

NOTE 1:
As part of the setup procedure, this script will use ssh and scp to copy
files between the local host and the remote hosts. Since the script does not
store passwords, you may be prompted for the passwords during the execution of
the script whenever ssh or scp is invoked.

NOTE 2:
AS PER SSH REQUIREMENTS, THIS SCRIPT WILL SECURE THE USER HOME DIRECTORY
AND THE .ssh DIRECTORY BY REVOKING GROUP AND WORLD WRITE PRIVILEDGES TO THESE
directories.

Do you want to continue and let the script make the above mentioned changes (yes/no)?
yes

The user chose yes
User chose to skip passphrase related questions.
Creating .ssh directory on local host, if not present already
Creating authorized_keys file on local host
Changing permissions on authorized_keys to 644 on local host
Creating known_hosts file on local host
Changing permissions on known_hosts to 644 on local host
Creating config file on local host
If a config file exists already at /home/grid/.ssh/config, it would be backed up to /home/grid/.ssh/config.backup.
Removing old private/public keys on local host
Running SSH keygen on local host with empty passphrase
Generating public/private rsa key pair.
Your identification has been saved in /home/grid/.ssh/id_rsa.
Your public key has been saved in /home/grid/.ssh/id_rsa.pub.
The key fingerprint is:
15:a9:b4:5a:72:7d:bd:bc:4a:5f:89:a7:55:df:3d:07 grid@rac1
The key's randomart image is:
+--[ RSA 1024]----+
|          ..     |
|        . ..     |
|       . +.  .   |
|      . =.. . .  |
|       =S  . .E..|
|      .       +.*|
|            .. **|
|           . .=.o|
|            .o.  |
+-----------------+
Creating .ssh directory and setting permissions on remote host rac1
THE SCRIPT WOULD ALSO BE REVOKING WRITE PERMISSIONS FOR group AND others ON THE HOME DIRECTORY FOR grid. THIS IS AN SSH REQUIREMENT.
The script would create ~grid/.ssh/config file on remote host rac1. If a config file exists already at ~grid/.ssh/config, it would be backed up to ~grid/.ssh/config.backup.
The user may be prompted for a password here since the script would be running SSH on host rac1.
Warning: Permanently added 'rac1,10.0.1.101' (RSA) to the list of known hosts.
grid@rac1's password: 
Done with creating .ssh directory and setting permissions on remote host rac1.
Creating .ssh directory and setting permissions on remote host rac2
THE SCRIPT WOULD ALSO BE REVOKING WRITE PERMISSIONS FOR group AND others ON THE HOME DIRECTORY FOR grid. THIS IS AN SSH REQUIREMENT.
The script would create ~grid/.ssh/config file on remote host rac2. If a config file exists already at ~grid/.ssh/config, it would be backed up to ~grid/.ssh/config.backup.
The user may be prompted for a password here since the script would be running SSH on host rac2.
Warning: Permanently added 'rac2,10.0.1.102' (RSA) to the list of known hosts.
grid@rac2's password: 
Done with creating .ssh directory and setting permissions on remote host rac2.
Copying local host public key to the remote host rac1
The user may be prompted for a password or passphrase here since the script would be using SCP for host rac1.
grid@rac1's password: 
Done copying local host public key to the remote host rac1
Copying local host public key to the remote host rac2
The user may be prompted for a password or passphrase here since the script would be using SCP for host rac2.
grid@rac2's password: 
Done copying local host public key to the remote host rac2
Creating keys on remote host rac1 if they do not exist already. This is required to setup SSH on host rac1.

Creating keys on remote host rac2 if they do not exist already. This is required to setup SSH on host rac2.
Generating public/private rsa key pair.
Your identification has been saved in .ssh/id_rsa.
Your public key has been saved in .ssh/id_rsa.pub.
The key fingerprint is:
6a:5c:65:a6:ec:39:18:91:2e:3c:0e:33:b2:ec:1d:e5 grid@rac2
The key's randomart image is:
+--[ RSA 1024]----+
|                 |
|       .         |
|      o   +      |
|   . . o =       |
|. + +.o S        |
|.o =o+ * .       |
|.. ..E= +        |
|. . ..   .       |
| . .             |
+-----------------+
Updating authorized_keys file on remote host rac1
Updating known_hosts file on remote host rac1
Updating authorized_keys file on remote host rac2
Updating known_hosts file on remote host rac2
cat: /home/grid/.ssh/known_hosts.tmp: 그런 파일이나 디렉터리가 없습니다
cat: /home/grid/.ssh/authorized_keys.tmp: 그런 파일이나 디렉터리가 없습니다
SSH setup is complete.

------------------------------------------------------------------------
Verifying SSH setup
===================
The script will now run the date command on the remote nodes using ssh
to verify if ssh is setup correctly. IF THE SETUP IS CORRECTLY SETUP,
THERE SHOULD BE NO OUTPUT OTHER THAN THE DATE AND SSH SHOULD NOT ASK FOR
PASSWORDS. If you see any output other than date or are prompted for the
password, ssh is not setup correctly and you will need to resolve the
issue and set up ssh again.
The possible causes for failure could be:
1. The server settings in /etc/ssh/sshd_config file do not allow ssh
for user grid.
2. The server may have disabled public key based authentication.
3. The client public key on the server may be outdated.
4. ~grid or ~grid/.ssh on the remote host may not be owned by grid.
5. User may not have passed -shared option for shared remote users or
may be passing the -shared option for non-shared remote users.
6. If there is output in addition to the date, but no password is asked,
it may be a security alert shown as part of company policy. Append the
additional text to the <OMS HOME>/sysman/prov/resources/ignoreMessages.txt file.
------------------------------------------------------------------------
--rac1:--
Running /usr/bin/ssh -x -l grid rac1 date to verify SSH connectivity has been setup from local host to rac1.
IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL. Please note that being prompted for a passphrase may be OK but being prompted for a password is ERROR.
2019. 04. 05. (금) 18:29:47 KST
------------------------------------------------------------------------
--rac2:--
Running /usr/bin/ssh -x -l grid rac2 date to verify SSH connectivity has been setup from local host to rac2.
IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL. Please note that being prompted for a passphrase may be OK but being prompted for a password is ERROR.
2019. 04. 05. (금) 18:29:47 KST
------------------------------------------------------------------------
------------------------------------------------------------------------
Verifying SSH connectivity has been setup from rac1 to rac1
IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL.
bash: -c: line 0: unexpected EOF while looking for matching `"'
bash: -c: line 1: syntax error: unexpected end of file
------------------------------------------------------------------------
------------------------------------------------------------------------
Verifying SSH connectivity has been setup from rac1 to rac2
IF YOU SEE ANY OTHER OUTPUT BESIDES THE OUTPUT OF THE DATE COMMAND OR IF YOU ARE PROMPTED FOR A PASSWORD HERE, IT MEANS SSH SETUP HAS NOT BEEN SUCCESSFUL.
bash: -c: line 0: unexpected EOF while looking for matching `"'
bash: -c: line 1: syntax error: unexpected end of file
------------------------------------------------------------------------
-Verification from complete-
SSH verification complete.


grid 유저로 모든 노드에서 확인
ssh [HOST_NAME1] date
ssh [HOST_NAME2] date
ssh [PRIVATE_NAME1] date
ssh [PRIVATE_NAME2]-priv date
[grid@+ASM1 ~]$ ssh rac1 date
2019. 04. 05. (금) 18:31:12 KST

[grid@+ASM1 ~]$ ssh rac2 date
2019. 04. 05. (금) 18:31:15 KST

[grid@+ASM1 ~]$ ssh rac1-priv date
The authenticity of host 'rac1-priv (10.0.5.101)' can't be established.
RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'rac1-priv,10.0.5.101' (RSA) to the list of known hosts.
2019. 04. 05. (금) 18:31:22 KST

[grid@+ASM1 ~]$ ssh rac2-priv date
The authenticity of host 'rac2-priv (10.0.5.102)' can't be established.
RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'rac2-priv,10.0.5.102' (RSA) to the list of known hosts.
2019. 04. 05. (금) 18:31:27 KST
[grid@+ASM2 ~]$ ssh rac1 date
2019. 04. 05. (금) 18:31:30 KST

[grid@+ASM2 ~]$ ssh rac2 date
2019. 04. 05. (금) 18:31:33 KST

[grid@+ASM2 ~]$ ssh rac1-priv date
The authenticity of host 'rac1-priv (10.0.5.101)' can't be established.
RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'rac1-priv,10.0.5.101' (RSA) to the list of known hosts.
2019. 04. 05. (금) 18:31:40 KST

[grid@+ASM2 ~]$ ssh rac2-priv date
The authenticity of host 'rac2-priv (10.0.5.102)' can't be established.
RSA key fingerprint is 12:cf:8a:65:85:4c:2d:9d:bd:b8:92:3f:49:6c:2d:a9.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'rac2-priv,10.0.5.102' (RSA) to the list of known hosts.
2019. 04. 05. (금) 18:31:45 KST


grid 유저로 모든 노드에서 수행
mkdir -p /u01/app/oraInventory
chmod -R 775 /u01/app/oraInventory
[grid@+ASM1 ~]$ mkdir -p /u01/app/oraInventory

[grid@+ASM1 ~]$ chmod -R 775 /u01/app/oraInventory

[grid@+ASM1 ~]$ ls -ltra /u01/app/oraInventory
합계 8
drwxrwxr-x. 2 grid oinstall 4096 2019-04-05 18:33 .
drwxrwx---. 5 grid oinstall 4096 2019-04-05 18:33 ..
[grid@+ASM2 ~]$ mkdir -p /u01/app/oraInventory

[grid@+ASM2 ~]$ chmod -R 775 /u01/app/oraInventory

[grid@+ASM2 ~]$ ls -ltra /u01/app/oraInventory
합계 8
drwxrwx---. 5 grid oinstall 4096 2019-04-05 18:33 ..
drwxrwxr-x. 2 grid oinstall 4096 2019-04-05 18:33 .


2. 설치 전 검증

grid 유저로 수행
cd <설치 파일 압축해제 경로>/grid
./runcluvfy.sh stage -pre crsinst -n [HOST_NAME1],[HOST_NAME2] -fixup -verbose
[grid@+ASM1 ~]$ cd /media/sf_oracle/grid

[grid@+ASM1 grid]$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose

클러스터 서비스 설정에 대한 사전 확인 수행 

노드 연결 가능성을 검사하는 중...

검사: "rac1" 노드에서의 노드 연결 가능성
  대상 노드                                 연결 가능?                  
  ------------------------------------  ------------------------
  rac2                                  예                       
  rac1                                  예                       
결과: "rac1" 노드에서 노드 연결 가능성 검사를 성공했습니다.


사용자 equivalence를 검사하는 중...

검사: 사용자 "grid"에 대한 사용자 equivalence
  노드 이름                                 상태                      
  ------------------------------------  ------------------------
  rac2                                  성공                      
  rac1                                  성공                      
결과: 사용자 "grid"에 대한 사용자 equivalence 검사를 성공했습니다.

노드 연결을 검사하는 중...

호스트 구성 파일 확인 중...
  노드 이름                                 상태                      
  ------------------------------------  ------------------------
  rac2                                  성공                      
  rac1                                  성공                      

호스트 구성 파일 확인을 성공했습니다.


"rac2" 노드에 대한 인터페이스 정보
 이름     IP 주소           서브넷             게이트웨이           Def. 게이트웨이      HW 주소             MTU   
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   10.0.1.102      10.0.1.0        0.0.0.0         10.0.1.1        08:00:27:F4:80:BB 1500  
 eth1   10.0.5.102      10.0.5.0        0.0.0.0         10.0.1.1        08:00:27:B8:4E:0E 1500  


"rac1" 노드에 대한 인터페이스 정보
 이름     IP 주소           서브넷             게이트웨이           Def. 게이트웨이      HW 주소             MTU   
 ------ --------------- --------------- --------------- --------------- ----------------- ------
 eth0   10.0.1.101      10.0.1.0        0.0.0.0         10.0.1.1        08:00:27:9C:B9:81 1500  
 eth1   10.0.5.101      10.0.5.0        0.0.0.0         10.0.1.1        08:00:27:CB:58:2B 1500  


검사: "10.0.1.0" 서브넷에 대한 노드 연결
  소스                              대상                              접속됨?            
  ------------------------------  ------------------------------  ----------------
  rac2[10.0.1.102]                rac1[10.0.1.101]                예               
결과: rac2,rac1개의 노드를 사용하는 "10.0.1.0" 서브넷에 대한 노드 연결을 성공했습니다.


검사: "10.0.1.0" 서브넷의 TCP 접속
  소스                              대상                              접속됨?            
  ------------------------------  ------------------------------  ----------------
  rac1:10.0.1.101                 rac2:10.0.1.102                 성공              
결과: "10.0.1.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다.


검사: "10.0.5.0" 서브넷에 대한 노드 연결
  소스                              대상                              접속됨?            
  ------------------------------  ------------------------------  ----------------
  rac2[10.0.5.102]                rac1[10.0.5.101]                예               
결과: rac2,rac1개의 노드를 사용하는 "10.0.5.0" 서브넷에 대한 노드 연결을 성공했습니다.


검사: "10.0.5.0" 서브넷의 TCP 접속
  소스                              대상                              접속됨?            
  ------------------------------  ------------------------------  ----------------
  rac1:10.0.5.101                 rac2:10.0.5.102                 성공              
결과: "10.0.5.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다.


"10.0.1.0" 서브넷에서 발견된 VIP 후보로 적합한 인터페이스:
rac2 eth0:10.0.1.102
rac1 eth0:10.0.1.101

"10.0.5.0" 서브넷에서 발견된 전용 상호 접속 후보로 적합한 인터페이스:
rac2 eth1:10.0.5.102
rac1 eth1:10.0.5.101
서브넷 마스크 일관성 확인 중...
"10.0.1.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다.
"10.0.5.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다.
서브넷 마스크 일관성 검사를 성공했습니다.

결과: 노드 연결 검사를 성공했습니다.

멀티캐스트 통신을 검사하는 중...

멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.1.0" 서브넷을 검사하는 중...
멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.1.0" 서브넷 검사를 성공했습니다.

멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.5.0" 서브넷을 검사하는 중...
멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.5.0" 서브넷 검사를 성공했습니다.

멀티캐스트 통신 검사를 성공했습니다.

ASMLib 구성을 검사하는 중입니다.
  노드 이름                                 상태                      
  ------------------------------------  ------------------------
  rac2                                  성공                      
  rac1                                  성공                      
결과: ASMLib 구성 검사를 성공했습니다.

검사: 총 메모리 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          1.9522GB (2047044.0KB)    1.5GB (1572864.0KB)       성공        
  rac1          1.9522GB (2047044.0KB)    1.5GB (1572864.0KB)       성공        
결과: 총 메모리 검사를 성공했습니다.

검사: 사용 가능한 메모리 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          1.8518GB (1941788.0KB)    50MB (51200.0KB)          성공        
  rac1          1.725GB (1808800.0KB)     50MB (51200.0KB)          성공        
결과: 사용 가능한 메모리 검사를 성공했습니다.

검사: 교체 공간 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          4GB (4194300.0KB)         2.9283GB (3070566.0KB)    성공        
  rac1          4GB (4194300.0KB)         2.9283GB (3070566.0KB)    성공        
결과: 교체 공간 검사를 성공했습니다.

검사: "rac2:/tmp"에 대한 여유 디스크 공간 
  경로                노드 이름         마운트 위치        사용 가능         필수            상태          
  ----------------  ------------  ------------  ------------  ------------  ------------
  /tmp              rac2          /             22.0244GB     1GB           성공          
결과: "rac2:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다.

검사: "rac1:/tmp"에 대한 여유 디스크 공간 
  경로                노드 이름         마운트 위치        사용 가능         필수            상태          
  ----------------  ------------  ------------  ------------  ------------  ------------
  /tmp              rac1          /             22.0056GB     1GB           성공          
결과: "rac1:/tmp"에 대한 여유 디스크 공간 검사를 성공했습니다.

검사: "grid"에 대한 사용자 존재 여부 
  노드 이름         상태                        설명                      
  ------------  ------------------------  ------------------------
  rac2          성공                        존재함(54322)              
  rac1          성공                        존재함(54322)              

UID 값이 54322인 다중 사용자를 검사하는 중
결과: UID 값이 54322인 다중 사용자 검사를 성공했습니다. 
결과: "grid"에 대한 사용자 존재 여부 검사를 성공했습니다.

검사: "oinstall"에 대한 그룹 존재 여부 
  노드 이름         상태                        설명                      
  ------------  ------------------------  ------------------------
  rac2          성공                        존재함                     
  rac1          성공                        존재함                     
결과: "oinstall"에 대한 그룹 존재 여부 검사를 성공했습니다.

검사: "dba"에 대한 그룹 존재 여부 
  노드 이름         상태                        설명                      
  ------------  ------------------------  ------------------------
  rac2          성공                        존재함                     
  rac1          성공                        존재함                     
결과: "dba"에 대한 그룹 존재 여부 검사를 성공했습니다.

검사: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽
  노드 이름             사용자가 존재함      그룹이 존재함       그룹의 사용자       기본            상태          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              예             예             예             예             성공          
  rac1              예             예             예             예             성공          
결과: "oinstall" 그룹[기본]의 사용자 "grid"에 대한 멤버쉽 검사를 성공했습니다.

검사: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 
  노드 이름             사용자가 존재함      그룹이 존재함       그룹의 사용자       상태              
  ----------------  ------------  ------------  ------------  ----------------
  rac2              예             예             예             성공              
  rac1              예             예             예             성공              
결과: "dba" 그룹의 사용자 "grid"에 대한 멤버쉽 검사를 성공했습니다.

검사: 실행 레벨 
  노드 이름         실행 레벨                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          3                         3,5                       성공        
  rac1          5                         3,5                       성공        
결과: 실행 레벨 검사를 성공했습니다.

검사: "최대 열린 파일 기술자"에 대한 완전 제한 
  노드 이름             유형            사용 가능         필수            상태              
  ----------------  ------------  ------------  ------------  ----------------
  rac2              완전            65536         65536         성공              
  rac1              완전            65536         65536         성공              
결과: "최대 열린 파일 기술자"에 대한 완전 제한 검사를 성공했습니다.

검사: "최대 열린 파일 기술자"에 대한 부분 제한 
  노드 이름             유형            사용 가능         필수            상태              
  ----------------  ------------  ------------  ------------  ----------------
  rac2              부분            65536         1024          성공              
  rac1              부분            65536         1024          성공              
결과: "최대 열린 파일 기술자"에 대한 부분 제한 검사를 성공했습니다.

검사: "최대 사용자 프로세스"에 대한 완전 제한 
  노드 이름             유형            사용 가능         필수            상태              
  ----------------  ------------  ------------  ------------  ----------------
  rac2              완전            16384         16384         성공              
  rac1              완전            16384         16384         성공              
결과: "최대 사용자 프로세스"에 대한 완전 제한 검사를 성공했습니다.

검사: "최대 사용자 프로세스"에 대한 부분 제한 
  노드 이름             유형            사용 가능         필수            상태              
  ----------------  ------------  ------------  ------------  ----------------
  rac2              부분            16384         2047          성공              
  rac1              부분            16384         2047          성공              
결과: "최대 사용자 프로세스"에 대한 부분 제한 검사를 성공했습니다.

검사: 시스템 구조 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          x86_64                    x86_64                    성공        
  rac1          x86_64                    x86_64                    성공        
결과: 시스템 구조 검사를 성공했습니다.

검사: 커널 버전 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          4.1.12-124.16.4.el6uek.x86_64  2.6.32                    성공        
  rac1          4.1.12-124.16.4.el6uek.x86_64  2.6.32                    성공        
결과: 커널 버전 검사를 성공했습니다.

검사: "semmsl"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              250           250           250           성공              
  rac1              250           250           250           성공              
결과: "semmsl"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "semmns"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              32000         32000         32000         성공              
  rac1              32000         32000         32000         성공              
결과: "semmns"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "semopm"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              100           100           100           성공              
  rac1              100           100           100           성공              
결과: "semopm"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "semmni"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              128           128           128           성공              
  rac1              128           128           128           성공              
결과: "semmni"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "shmmax"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              4398046511104  4398046511104  1048086528    성공              
  rac1              4398046511104  4398046511104  1048086528    성공              
결과: "shmmax"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "shmmni"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              4096          4096          4096          성공              
  rac1              4096          4096          4096          성공              
결과: "shmmni"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "shmall"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              4294967296    4294967296    2097152       성공              
  rac1              4294967296    4294967296    2097152       성공              
결과: "shmall"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "file-max"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              6815744       6815744       6815744       성공              
  rac1              6815744       6815744       6815744       성공              
결과: "file-max"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "ip_local_port_range"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  성공              
  rac1              between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  성공              
결과: "ip_local_port_range"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "rmem_default"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              262144        262144        262144        성공              
  rac1              262144        262144        262144        성공              
결과: "rmem_default"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "rmem_max"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              4194304       4194304       4194304       성공              
  rac1              4194304       4194304       4194304       성공              
결과: "rmem_max"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "wmem_default"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              262144        262144        262144        성공              
  rac1              262144        262144        262144        성공              
결과: "wmem_default"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "wmem_max"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              1048576       1048576       1048576       성공              
  rac1              1048576       1048576       1048576       성공              
결과: "wmem_max"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "aio-max-nr"에 대한 커널 매개변수 
  노드 이름             현재            구성됨           필수            상태            설명          
  ----------------  ------------  ------------  ------------  ------------  ------------
  rac2              1048576       1048576       1048576       성공              
  rac1              1048576       1048576       1048576       성공              
결과: "aio-max-nr"에 대한 커널 매개변수 검사를 성공했습니다.

검사: "binutils"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          binutils-2.20.51.0.2-5.48.el6  binutils-2.20.51.0.2      성공        
  rac1          binutils-2.20.51.0.2-5.48.el6  binutils-2.20.51.0.2      성공        
결과: "binutils"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "compat-libcap1"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          compat-libcap1-1.10-1     compat-libcap1-1.10       성공        
  rac1          compat-libcap1-1.10-1     compat-libcap1-1.10       성공        
결과: "compat-libcap1"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          compat-libstdc++-33(x86_64)-3.2.3-69.el6  compat-libstdc++-33(x86_64)-3.2.3  성공        
  rac1          compat-libstdc++-33(x86_64)-3.2.3-69.el6  compat-libstdc++-33(x86_64)-3.2.3  성공        
결과: "compat-libstdc++-33(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "libgcc(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          libgcc(x86_64)-4.4.7-23.0.1.el6  libgcc(x86_64)-4.4.4      성공        
  rac1          libgcc(x86_64)-4.4.7-23.0.1.el6  libgcc(x86_64)-4.4.4      성공        
결과: "libgcc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "libstdc++(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          libstdc++(x86_64)-4.4.7-23.0.1.el6  libstdc++(x86_64)-4.4.4   성공        
  rac1          libstdc++(x86_64)-4.4.7-23.0.1.el6  libstdc++(x86_64)-4.4.4   성공        
결과: "libstdc++(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          libstdc++-devel(x86_64)-4.4.7-23.0.1.el6  libstdc++-devel(x86_64)-4.4.4  성공        
  rac1          libstdc++-devel(x86_64)-4.4.7-23.0.1.el6  libstdc++-devel(x86_64)-4.4.4  성공        
결과: "libstdc++-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "sysstat"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          sysstat-9.0.4-33.el6_9.1  sysstat-9.0.4             성공        
  rac1          sysstat-9.0.4-33.el6_9.1  sysstat-9.0.4             성공        
결과: "sysstat"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "gcc"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          gcc-4.4.7-23.0.1.el6      gcc-4.4.4                 성공        
  rac1          gcc-4.4.7-23.0.1.el6      gcc-4.4.4                 성공        
결과: "gcc"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "gcc-c++"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          gcc-c++-4.4.7-23.0.1.el6  gcc-c++-4.4.4             성공        
  rac1          gcc-c++-4.4.7-23.0.1.el6  gcc-c++-4.4.4             성공        
결과: "gcc-c++"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "ksh"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          ksh-20120801-37.el6_9     ksh-20100621              성공        
  rac1          ksh-20120801-37.el6_9     ksh-20100621              성공        
결과: "ksh"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "make"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          make-3.81-23.el6          make-3.81                 성공        
  rac1          make-3.81-23.el6          make-3.81                 성공        
결과: "make"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "glibc(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          glibc(x86_64)-2.12-1.212.0.1.el6  glibc(x86_64)-2.12        성공        
  rac1          glibc(x86_64)-2.12-1.212.0.1.el6  glibc(x86_64)-2.12        성공        
결과: "glibc(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          glibc-devel(x86_64)-2.12-1.212.0.1.el6  glibc-devel(x86_64)-2.12  성공        
  rac1          glibc-devel(x86_64)-2.12-1.212.0.1.el6  glibc-devel(x86_64)-2.12  성공        
결과: "glibc-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "libaio(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          libaio(x86_64)-0.3.107-10.el6  libaio(x86_64)-0.3.107    성공        
  rac1          libaio(x86_64)-0.3.107-10.el6  libaio(x86_64)-0.3.107    성공        
결과: "libaio(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

검사: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 
  노드 이름         사용 가능                     필수                        상태        
  ------------  ------------------------  ------------------------  ----------
  rac2          libaio-devel(x86_64)-0.3.107-10.el6  libaio-devel(x86_64)-0.3.107  성공        
  rac1          libaio-devel(x86_64)-0.3.107-10.el6  libaio-devel(x86_64)-0.3.107  성공        
결과: "libaio-devel(x86_64)"에 대한 패키지 존재 여부 검사를 성공했습니다.

UID 값이 0인 다중 사용자를 검사하는 중
결과: UID 값이 0인 다중 사용자 검사를 성공했습니다. 

검사: 현재 그룹 ID 
결과: 현재 그룹 ID 검사를 성공했습니다.

루트 사용자의 기본 그룹 일관성 검사를 시작하는 중입니다.
  노드 이름                                 상태                      
  ------------------------------------  ------------------------
  rac2                                  성공                      
  rac1                                  성공                      

루트 사용자의 기본 그룹에 대한 일관성 검사를 성공했습니다.

NTP(Network Time Protocol)를 사용하여 시계 동기화 검사를 시작하는 중...

NTP 구성 파일 검사가 시작되었습니다.
노드에서 NTP(Network Time Protocol) 구성 파일을 찾을 수 없습니다. 클러스터 노드에 대한 시간 동기화에 NTP 대신 Oracle CTSS(Cluster Time Synchronization Service)를 사용할 수 있습니다.
실행 중인 NTP 데몬 또는 서비스가 없는 것으로 확인되었습니다.

결과: NTP(Network Time Protocol)를 사용한 시계 동기화 검사를 성공했습니다.

코어 파일 이름 패턴 일관성을 검사하는 중...
코어 파일 이름 패턴 일관성 검사를 성공했습니다.

사용자 "grid"이(가) "root" 그룹에 속해 있지 않은지 확인하는 중입니다.
  노드 이름         상태                        설명                      
  ------------  ------------------------  ------------------------
  rac2          성공                        존재하지 않음                 
  rac1          성공                        존재하지 않음                 
결과: 사용자 "grid"이(가) "root" 그룹에 속해 있지 않습니다. 검사를 성공했습니다.

기본 사용자 파일 생성 마스크 검사
  노드 이름         사용 가능                     필수                        설명        
  ------------  ------------------------  ------------------------  ----------
  rac2          0022                      0022                      성공        
  rac1          0022                      0022                      성공        
결과: 기본 사용자 파일 생성 마스크 검사를 성공했습니다.
노드에서 "/etc/resolv.conf" 파일의 일관성을 검사하는 중

"/etc/resolv.conf" 파일에서 'domain' 및 'search' 항목이 하나씩만 정의되어 있는지 검사하는 중
"/etc/resolv.conf" 파일에 'domain' 항목과 'search' 항목이 모두 정의되지 않았습니다.
"/etc/resolv.conf" 파일의 'domain' 항목이 노드에서 일치하는지 여부를 검사하는 중...
"/etc/resolv.conf" 파일의 'domain' 항목이 노드에서 일치합니다.
"/etc/resolv.conf" 파일의 'search' 항목이 노드에서 일치하는지 여부를 검사하는 중...
"/etc/resolv.conf" 파일의 'search' 항목이 노드에서 일치합니다.
연결할 수 없는 노드에 대한 DNS 응답 시간을 검사하는 중
  노드 이름                                 상태                      
  ------------------------------------  ------------------------
  rac2                                  성공                      
  rac1                                  성공                      
모든 노드에서 연결할 수 없는 노드에 대한 DNS 응답 시간이 허용되는 제한 범위에 속합니다.

"/etc/resolv.conf" 파일이 노드에서 일치합니다.

검사: 시간대 일관성 
결과: 시간대 일관성 검사를 성공했습니다.

클러스터 서비스 설정에 대한 사전 확인을 성공했습니다.


3. Grid 설치 response 파일 설정

grid 유저로 response 파일 수정
cp <설치 파일 압축해제 경로>/grid/response/grid_install.rsp ~/.
vi ~/grid_install.rsp
vi ~/grid_install.rsp
oracle.install.responseFileVersion=/oracle/install/rspfmt_crsinstall_response_schema_v11_2_0
ORACLE_HOSTNAME=[HOST_NAME1]
INVENTORY_LOCATION=[ORACLE_INVENTORY]
SELECTED_LANGUAGES=en,ko
oracle.install.option=CRS_CONFIG
ORACLE_BASE=[ORACLE_BASE]
ORACLE_HOME=[GRID_HOME]
oracle.install.asm.OSDBA=asmdba
oracle.install.asm.OSOPER=asmoper
oracle.install.asm.OSASM=asmadmin
oracle.install.crs.config.gpnp.scanName=[SCAN_NAME]
oracle.install.crs.config.gpnp.scanPort=[LISTENER_PORT]
oracle.install.crs.config.clusterName=[CLUSTER_NAME]
oracle.install.crs.config.gpnp.configureGNS=false
oracle.install.crs.config.autoConfigureClusterNodeVIP=false
oracle.install.crs.config.clusterNodes=[HOST_NAME1]:[VIP_NAME1],[HOST_NAME2]:[VIP_NAME2]
oracle.install.crs.config.networkInterfaceList=[PUBLIC_INTERFACE_NAME]:[PUBLIC_SUBNET]:1,[PRIVATE_INTERFACE_NAME]:[PRIVATE_SUBNET]:2
oracle.install.crs.config.storageOption=ASM_STORAGE
oracle.install.crs.config.sharedFileSystemStorage.votingDiskRedundancy=EXTERNAL
oracle.install.crs.config.sharedFileSystemStorage.ocrRedundancy=EXTERNAL
oracle.install.crs.config.useIPMI=false
oracle.install.asm.SYSASMPassword=[ASM_PASSWD]
oracle.install.asm.diskGroup.name=DATA
oracle.install.asm.diskGroup.redundancy=EXTERNAL
oracle.install.asm.diskGroup.AUSize=1
oracle.install.asm.diskGroup.disks=/dev/raw/raw6
oracle.install.asm.diskGroup.diskDiscoveryString=/dev/raw/raw*
oracle.install.asm.monitorPassword=[HOST_NAME1]
oracle.install.asm.upgradeASM=false
oracle.installer.autoupdates.option=SKIP_UPDATES

grid_install.rsp

oracle.install.responseFileVersion=/oracle/install/rspfmt_crsinstall_response_schema_v11_2_0
ORACLE_HOSTNAME=rac1
INVENTORY_LOCATION=/u01/app/oraInventory
SELECTED_LANGUAGES=en,ko
oracle.install.option=CRS_CONFIG
ORACLE_BASE=/u01/app/oracle
ORACLE_HOME=/u01/app/11.2.0/grid
oracle.install.asm.OSDBA=asmdba
oracle.install.asm.OSOPER=asmoper
oracle.install.asm.OSASM=asmadmin
oracle.install.crs.config.gpnp.scanName=rac-scan
oracle.install.crs.config.gpnp.scanPort=1521
oracle.install.crs.config.clusterName=rac
oracle.install.crs.config.gpnp.configureGNS=false
oracle.install.crs.config.autoConfigureClusterNodeVIP=false
oracle.install.crs.config.clusterNodes=rac1:rac1-vip,rac2:rac2-vip
oracle.install.crs.config.networkInterfaceList=eth0:10.0.1.0:1,eth1:10.0.5.0:2
oracle.install.crs.config.storageOption=ASM_STORAGE
oracle.install.crs.config.sharedFileSystemStorage.votingDiskRedundancy=EXTERNAL
oracle.install.crs.config.sharedFileSystemStorage.ocrRedundancy=EXTERNAL
oracle.install.crs.config.useIPMI=false
oracle.install.asm.SYSASMPassword=oracle_4U
oracle.install.asm.diskGroup.name=DATA
oracle.install.asm.diskGroup.redundancy=EXTERNAL
oracle.install.asm.diskGroup.AUSize=1
oracle.install.asm.diskGroup.disks=/dev/raw/raw6
oracle.install.asm.diskGroup.diskDiscoveryString=/dev/raw/raw*
oracle.install.asm.monitorPassword=oracle_4U
oracle.install.asm.upgradeASM=false
oracle.installer.autoupdates.option=SKIP_UPDATES


4. Grid 설치 수행

grid 유저로 수행
cd <설치 파일 압축해제 경로>/grid
./runInstaller -ignorePrereq -silent -force -responseFile ~/grid_install.rsp
[grid@+ASM1 grid]$ cd /media/sf_oracle/grid
 
[grid@+ASM1 grid]$ ./runInstaller -ignorePrereq -silent -force -responseFile ~/grid_install.rsp
Oracle Universal Installer 시작 중...

임시 공간 확인 중: 120MB 이상이어야 합니다..   실제 21508MB    성공
스왑 공간 확인 중: 150MB 이상이어야 합니다..   실제 4095MB    성공
다음에서 Oracle Universal Installer의 시작을 준비하는 중 /tmp/OraInstall2019-04-05_06-55-41PM. 기다리십시오.[grid@+ASM1 grid]$ 다음 위치에서 이 설치 세션의 로그를 찾을 수 있습니다.
 /u01/app/oraInventory/logs/installActions2019-04-05_06-55-41PM.log
Oracle Grid Infrastructure 11g의 설치을(를) 성공했습니다.
자세한 내용은 '/u01/app/oraInventory/logs/silentInstall2019-04-05_06-55-41PM.log'을(를) 확인하십시오.

루트 사용자로 다음 스크립트를 실행합니다.
	1. /u01/app/oraInventory/orainstRoot.sh
	2. /u01/app/11.2.0/grid/root.sh

다음 노드에서 /u01/app/oraInventory/orainstRoot.sh을(를) 실행하십시오.
[rac1, rac2]
다음 노드에서 /u01/app/11.2.0/grid/root.sh을(를) 실행하십시오.
[rac1, rac2]

설치 사용자로 다음 스크립트를 실행하여 구성을 완료하십시오.
	1. /u01/app/11.2.0/grid/cfgtoollogs/configToolAllCommands RESPONSE_FILE=<response_file>

 	참고:
	1. 이 스크립트는 설치 프로그램이 실행된 동일한 호스트에서 실행해야 합니다. 
	2. 이 스크립트에는 비밀번호가 필요한 Configuration Assistant에 대한 작은 비밀번호 속성 파일이 필요합니다(설치 설명서 참조).


Successfully Setup Software.

installActions2019-04-05_06-55-41PM.log

silentInstall2019-04-05_06-55-41PM.log


5. root 유저 스크립트 수행

root 유저로 실행
/u01/app/oraInventory/orainstRoot.sh
[root@rac1 ~]# /u01/app/oraInventory/orainstRoot.sh
다음 권한 변경 중/u01/app/oraInventory.
그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다.
월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다.

그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall.
스크립트 실행이 완료되었습니다.
[root@rac2 ~]# /u01/app/oraInventory/orainstRoot.sh
다음 권한 변경 중/u01/app/oraInventory.
그룹에 대한 읽기, 쓰기 권한을 추가하는 중입니다.
월드에 대한 읽기, 쓰기, 실행 권한을 제거하는 중입니다.

그룹 이름 변경 중 /u01/app/oraInventory 대상 oinstall.
스크립트 실행이 완료되었습니다.


root 유저로 실행
/u01/app/11.2.0/grid/root.sh
[root@rac1 ~]# /u01/app/11.2.0/grid/root.sh 
Check /u01/app/11.2.0/grid/install/root_rac1_2019-04-05_19-04-22.log for the output of root script
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/11.2.0/grid
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...


Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
  root wallet
  root wallet cert
  root cert export
  peer wallet
  profile reader wallet
  pa wallet
  peer wallet keys
  pa wallet keys
  peer cert request
  pa cert request
  peer cert
  pa cert
  peer root cert TP
  profile reader root cert TP
  pa root cert TP
  peer pa cert TP
  pa peer cert TP
  profile reader pa cert TP
  profile reader peer cert TP
  peer user cert
  pa user cert
Adding Clusterware entries to upstart
CRS-2672: Attempting to start 'ora.mdnsd' on 'rac1'
CRS-2676: Start of 'ora.mdnsd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'rac1'
CRS-2676: Start of 'ora.gpnpd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac1'
CRS-2672: Attempting to start 'ora.gipcd' on 'rac1'
CRS-2676: Start of 'ora.cssdmonitor' on 'rac1' succeeded
CRS-2676: Start of 'ora.gipcd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'rac1'
CRS-2672: Attempting to start 'ora.diskmon' on 'rac1'
CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded
CRS-2676: Start of 'ora.cssd' on 'rac1' succeeded

ASM이 성공적으로 생성되고 시작되었습니다.

디스크 그룹 DATA이(가) 성공적으로 생성되었습니다.

clscfg: -install mode specified
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
CRS-4256: Updating the profile
Successful addition of voting disk 7d91b543779a4fdebfc8895c7fda9c05.
Successfully replaced voting disk group with +DATA.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
##  STATE    File Universal Id                File Name Disk group
--  -----    -----------------                --------- ---------
 1. ONLINE   7d91b543779a4fdebfc8895c7fda9c05 (/dev/raw/raw6) [DATA]
Located 1 voting disk(s).
CRS-2672: Attempting to start 'ora.asm' on 'rac1'
CRS-2676: Start of 'ora.asm' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.DATA.dg' on 'rac1'
CRS-2676: Start of 'ora.DATA.dg' on 'rac1' succeeded
[1mConfigure Oracle Grid Infrastructure for a Cluster ... succeeded
[0m
[root@rac2 ~]# /u01/app/11.2.0/grid/root.sh 
Check /u01/app/11.2.0/grid/install/root_rac2_2019-04-05_19-11-19.log for the output of root script
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/11.2.0/grid
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...


Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
Adding Clusterware entries to upstart
CRS-4402: CSS 데몬이 배타 모드에서 시작되었지만 활성 CSS 데몬이 노드 rac1, 번호 1에서 발견되어 종료 중입니다.
An active cluster was found during exclusive startup, restarting to join the cluster
[1mConfigure Oracle Grid Infrastructure for a Cluster ... succeeded
[0m


6. Grid 설치 후 스크립트 수행

vi $GRID_HOME/cfgtoollogs/cfgrsp.properties 로 response 파일 생성
oracle.assistants.asm|S_ASMPASSWORD=[ASM_PASSWD]
oracle.assistants.asm|S_ASMMONITORPASSWORD=[ASM_PASSWD]
oracle.assistants.asm|S_ASMPASSWORD=oracle_4U
oracle.assistants.asm|S_ASMMONITORPASSWORD=oracle_4U


grid 유저로 수행
cd $GRID_HOME/cfgtoollogs
chmod 600 cfgrsp.properties
./configToolAllCommands RESPONSE_FILE=./cfgrsp.properties
[grid@+ASM1 grid]$ cd $GRID_HOME/cfgtoollogs
 
[grid@+ASM1 cfgtoollogs]$ chmod 600 cfgrsp.properties

[grid@+ASM1 cfgtoollogs]$ ./configToolAllCommands RESPONSE_FILE=./cfgrsp.properties
Setting the invPtrLoc to /u01/app/11.2.0/grid/oraInst.loc

perform - 작업 시작 중인 모드: configure

2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn invoke
정보: Executing ASMCA
2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn invoke
정보: Command /u01/app/11.2.0/grid/bin/asmca -silent -postConfigureASM -oui_internal  
2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: ... GenericInternalPlugIn.handleProcess() entered.
2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: ... GenericInternalPlugIn: getting configAssistantParmas.
2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: ... GenericInternalPlugIn: checking secretArguments.
2019. 4. 5 오후 7:18:04 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: ... GenericInternalPlugIn: starting read loop.
2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Read: SYS_PASSWORD_PROMPT
2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Processing: SYS_PASSWORD_PROMPT for argument tag -sysAsmPassword
2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Read: ASMSNMP_PASSWORD_PROMPT
2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Processing: ASMSNMP_PASSWORD_PROMPT for argument tag -asmMonitorPassword
2019. 4. 5 오후 7:18:13 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: End of argument passing to stdin
2019. 4. 5 오후 7:18:16 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Read: 
2019. 4. 5 오후 7:18:16 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Read: PostConfiguration이 성공적으로 완료되었습니다.
2019. 4. 5 오후 7:18:16 oracle.install.driver.oui.config.GenericInternalPlugIn handleProcess
정보: Read: 

perform - 작업이 완료된 모드: configure

로그 파일을 확인할 수 있습니다./u01/app/11.2.0/grid/cfgtoollogs/oui/configActions2019-04-05_07-16-49-PM.log
###################################################
The action configuration is performing
------------------------------------------------------
The plug-in Update Inventory is running


/u01/app/11.2.0/grid/oui/bin/runInstaller -nowait -noconsole -waitforcompletion -ignoreSysPrereqs -updateNodeList -silent CRS=true "CLUSTER_NODES={rac1,rac2}" ORACLE_HOME=/u01/app/11.2.0/grid 
Oracle Universal Installer 시작 중...

스왑 공간 확인 중: 500MB 이상이어야 합니다..   실제 4076MB    성공
The inventory pointer is located at /etc/oraInst.loc
The inventory is located at /u01/app/oraInventory

The plug-in Update Inventory has successfully been performed
------------------------------------------------------
------------------------------------------------------
The plug-in Oracle Net Configuration Assistant is running


명령행 인수 분석:
    매개변수 "orahome" = /u01/app/11.2.0/grid
    매개변수 "orahnam" = Ora11g_gridinfrahome1
    매개변수 "instype" = typical
    매개변수 "inscomp" = client,oraclenet,javavm,server,ano
    매개변수 "insprtcl" = tcp
    매개변수 "cfg" = local
    매개변수 "authadp" = NO_VALUE
    매개변수 "responsefile" = /u01/app/11.2.0/grid/network/install/netca_typ.rsp
    매개변수 "silent" = true
    매개변수 "silent" = true
명령행 인수 분석을 완료했습니다.
Oracle Net Service 구성:
프로파일 구성이 완료되었습니다.
프로파일 구성이 완료되었습니다.
rac1...
rac2...
Oracle Net 리스너 시작:
    리스너가 성공적으로 시작되었습니다.
리스너 구성이 완료되었습니다.
Oracle Net Service 구성을 성공했습니다. 종료 코드는 다음과 같습니다. 0

The plug-in Oracle Net Configuration Assistant has successfully been performed
------------------------------------------------------
------------------------------------------------------
The plug-in Automatic Storage Management Configuration Assistant is running


The plug-in Automatic Storage Management Configuration Assistant has successfully been performed
------------------------------------------------------
------------------------------------------------------
The plug-in Oracle Cluster Verification Utility is running


클러스터 서비스 설정에 대한 사후 확인 수행 

노드 연결 가능성을 검사하는 중...
"rac1" 노드에서 노드 연결 가능성 검사를 성공했습니다.


사용자 equivalence를 검사하는 중...
사용자 "grid"에 대한 사용자 equivalence 검사를 성공했습니다.

노드 연결을 검사하는 중...

호스트 구성 파일 확인 중...

호스트 구성 파일 확인을 성공했습니다.

검사: "eth0" 인터페이스에 대한 노드 연결
"eth0" 인터페이스에 대한 노드 연결을 성공했습니다.
"10.0.1.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다.


검사: "eth1" 인터페이스에 대한 노드 연결
"eth1" 인터페이스에 대한 노드 연결을 성공했습니다.
"10.0.5.0" 서브넷에 대한 TCP 접속 검사를 성공했습니다.

서브넷 마스크 일관성 확인 중...
"10.0.1.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다.
"10.0.5.0" 서브넷에 대한 서브넷 마스크 일관성 검사를 성공했습니다.
서브넷 마스크 일관성 검사를 성공했습니다.

노드 연결 검사를 성공했습니다.

멀티캐스트 통신을 검사하는 중...

멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.1.0" 서브넷을 검사하는 중...
멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.1.0" 서브넷 검사를 성공했습니다.

멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위해 "10.0.5.0" 서브넷을 검사하는 중...
멀티캐스트 그룹 "230.0.1.0"과(와) 멀티캐스트 통신을 위한 "10.0.5.0" 서브넷 검사를 성공했습니다.

멀티캐스트 통신 검사를 성공했습니다.
시간대 일관성 검사를 성공했습니다.

Oracle 클러스터 선호 디스크 구성을 검사하는 중...

ASM 실행 여부 검사를 성공했습니다. ASM이 지정된 모든 노드에서 실행 중입니다.

Oracle 클러스터 선호 디스크 구성 검사를 성공했습니다.

클러스터 관리자 무결성을 검사하는 중... 


CSS 데몬을 검사하는 중...
Oracle Cluster Synchronization Services가 온라인입니다.

클러스터 관리자 무결성 검사를 성공했습니다.


OCR 위치에 대한 UDev 속성 검사가 시작되었습니다.
OCR 위치에 대한 UDev 속성 검사를 성공했습니다. 


선호 디스크 위치에 대한 UDev 속성 검사가 시작되었습니다.
선호 디스크 위치에 대한 UDev 속성 검사를 성공했습니다. 

기본 사용자 파일 생성 마스크 검사를 성공했습니다.

클러스터 무결성을 검사하는 중...


클러스터 무결성 검사를 성공했습니다.


OCR 무결성을 검사하는 중...

클러스터화되지 않은 구성이 없는지 검사하는 중...
모든 노드에 클러스터화되지 않은 로컬 전용 구성이 없습니다.


ASM 실행 여부 검사를 성공했습니다. ASM이 지정된 모든 노드에서 실행 중입니다.

OCR 구성 파일 "/etc/oracle/ocr.loc"을(를) 검사하는 중...

OCR 구성 파일 "/etc/oracle/ocr.loc" 검사를 성공했습니다.


모든 노드에서 사용 가능한 OCR 위치 "+DATA"에 대한 디스크 그룹


NOTE: 
이 검사는 OCR 콘텐츠의 무결성을 확인하지 않습니다. OCR 콘텐츠를 확인하려면 권한이 있는 사용자로 'ocrcheck'를 실행하십시오.

OCR 무결성 검사를 성공했습니다.

CRS 무결성을 검사하는 중...

Clusterware 버전 일관성 검사를 성공했습니다.

CRS 무결성 검사를 성공했습니다.

노드 응용 프로그램의 존재 여부를 검사하는 중...

VIP 노드 응용 프로그램이 존재하는지 검사하는 중(필수)
VIP 노드 응용 프로그램 검사를 성공했습니다.

NETWORK 노드 응용 프로그램이 존재하는지 검사하는 중(필수)
NETWORK 노드 응용 프로그램 검사를 성공했습니다.

GSD 노드 응용 프로그램이 존재하는지 검사하는 중(선택 사항)
GSD 노드 응용 프로그램이 "rac2,rac1" 노드에서 오프라인 상태입니다.

ONS 노드 응용 프로그램이 존재하는지 검사하는 중(선택 사항)
ONS 노드 응용 프로그램 검사를 성공했습니다.


SCAN(단일 클라이언트 액세스 이름) 검사 중...

SCAN 리스너에 대한 TCP 접속을 검사하는 중...
SCAN 리스너에 대한 TCP 접속이 모든 클러스터 노드에 존재합니다.

"rac-scan"에 대한 이름 분석 설정을 검사하는 중...

Checking integrity of name service switch configuration file "/etc/nsswitch.conf" ...
All nodes have same "hosts" entry defined in file "/etc/nsswitch.conf"
Check for integrity of name service switch configuration file "/etc/nsswitch.conf" passed


SCAN VIP 및 리스너 설정 확인을 성공했습니다.

OLR 무결성 검사 중...

OLR 구성 파일 확인 중...

OLR 구성 파일 확인을 성공했습니다.


OLR 파일 속성 확인 중...

OLR 파일 확인을 성공했습니다.


WARNING: 
이 검사는 OLR 콘텐츠의 무결성을 확인하지 않습니다. OLR 콘텐츠를 확인하려면 권한이 있는 사용자로 'ocrcheck -local'을 실행하십시오.

OLR 무결성 검사를 성공했습니다.

사용자 "grid"이(가) "root" 그룹에 속해 있지 않습니다. 검사를 성공했습니다.

모든 노드에 Clusterware가 설치되었는지 여부를 검사하는 중...
Clusterware 설치 검사를 성공했습니다.

CTSS 리소스가 모든 노드에서 실행 중인지 여부를 검사하는 중...
CTSS 리소스 검사를 성공했습니다.


모든 노드에서 시간 오프셋에 대해 CTSS를 질의하는 중...
시간 오프셋에 대한 CTSS 질의를 성공했습니다.

CTSS 상태 검사가 시작되었습니다.
CTSS가 활성 상태입니다. 모든 노드에서 시계 시간 오프셋 검사가 계속 진행됩니다.
시계 시간 오프셋 검사를 성공했습니다.


Oracle Cluster Time Synchronization Service 검사를 성공했습니다.
VIP 구성을 검사하는 중입니다.
VIP 서브넷 구성을 검사하는 중입니다.
VIP 서브넷 구성 검사를 성공했습니다.
VIP 연결 가능성을 검사하는 중
VIP 연결 가능성 검사를 성공했습니다.

클러스터 서비스 설정에 대한 사후 확인을 성공했습니다. 

The plug-in Oracle Cluster Verification Utility has successfully been performed
------------------------------------------------------
The action configuration has successfully completed
###################################################


7. Grid 설치 결과 확인

클러스터 상태 확인
crsctl stat res -t
[root@rac2 ~]# crsctl stat res -t
--------------------------------------------------------------------------------
NAME           TARGET  STATE        SERVER                   STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
               ONLINE  ONLINE       rac1
               ONLINE  ONLINE       rac2
ora.LISTENER.lsnr
               ONLINE  ONLINE       rac1
               ONLINE  ONLINE       rac2
ora.asm
               ONLINE  ONLINE       rac1                     Started
               ONLINE  ONLINE       rac2                     Started
ora.gsd
               OFFLINE OFFLINE      rac1
               OFFLINE OFFLINE      rac2
ora.net1.network
               ONLINE  ONLINE       rac1
               ONLINE  ONLINE       rac2
ora.ons
               ONLINE  ONLINE       rac1
               ONLINE  ONLINE       rac2
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
      1        ONLINE  ONLINE       rac1
ora.cvu
      1        ONLINE  ONLINE       rac1
ora.oc4j
      1        ONLINE  ONLINE       rac1
ora.rac1.vip
      1        ONLINE  ONLINE       rac1
ora.rac2.vip
      1        ONLINE  ONLINE       rac2
ora.scan1.vip
      1        ONLINE  ONLINE       rac1


8. 리스너 추가

grid 유저로 리스너 추가
srvctl add listener -listener LISTENER


  • 레이블 없음