cd clusterware
./runInstaller


먼저 10.2.0.1 버전의 클러스터웨어를 설치합니다.

압축이 해제된 경로에서 설치 스크립트를 실행합니다.

<Oracle Universal Installer 정보>를 클릭하면 설치 프로그램 OUI의 정보를 확인할 수 있습니다.

<설치된 제품>을 클릭하면 현재 서버에 설치된 제품 정보 확인이 가능합니다.


시작 화면에서 <다음>을 클릭하여 설치를 진행합니다.

인벤토리 디렉토리와 운영 체제 그룹 정보가 제대로 입력이 되어있는지 확인하고 <다음>을 클릭합니다.

<제품 언어>를 클릭하면 제품을 실행할 언어를 추가 또는 제거할 수 있습니다.


클러스터웨어를 설치할 경로에 "/u01/app/oracle/product/10.2.0/crs"를 입력합니다.

기본적으로 데이터베이스가 설치될 경로가 지정되어 있으므로 반드시 클러스터웨어를 설치할 경로로 수정해야 합니다.

홈 경로 이름 또한 "OraCrs10g_home"으로 되어 있는지 확인하고 <다음>을 클릭합니다.

앞에서 진행된 사전 준비에 이상이 없다면 필요 조건 검사를 모두 성공하게 됩니다.

만약 실패한 부분이 있다면 반드시 설치 전에 수정하고 진행하는 것을 권고합니다.

특이사항이 없을 경우에는 <다음>을 클릭합니다.

클러스터 구성을 지정하는 부분입니다.

기본적으로 클러스터웨어 설치를 진행하는 노드의 정보가 입력되어 있으며, 다른 노드의 정보를 추가해야 합니다.

<추가>를 클릭합니다.

새 노드 추가 창에 추가될 노드의 정보를 입력합니다.

  • 공용 노드 이름 : rac2
  • 전용 노드 이름 : rac2-priv
  • 가상 호스트 이름 : rac2-vip

뒤에 .localdomain을 생략해도 구성에 지장이 없습니다.

모두 입력하고 <확인>을 클릭합니다.

입력할 노드가 꼭 2개여야 할 필요는 없으며, 최초에 구성할 노드 갯수만큼을 모두 이곳에 입력하면 됩니다.

모든 노드의 정보를 입력하고 <다음>을 클릭합니다.

네트워크 인터페이스 용도를 지정하는 단계입니다.

기본적으로 모든 인터페이스가 '전용'으로 선택되어 있으므로 수정이 필요합니다.

공용망으로 사용할 'eth0' 인터페이스를 선택하고 <편집>을 클릭합니다.

인터페이스 유형을 '공용'으로 선택하고 <확인>을 클릭합니다.

네트워크 인터페이스 용도 지정이 완료되었으면 <다음>을 클릭합니다.

OCR 위치를 입력하는 단계입니다.

OCR 구성은 '보통의 중복성'을 선택하고, 위치 정보에 사용할 raw device 경로를 입력합니다.

  • OCR 위치 지정 : /dev/raw/raw1
  • OCR 이중화 위치 지정 : /dev/raw/raw2

입력이 완료되었으면 <다음>을 클릭합니다.

Voting 디스크를 구성하는 단계입니다.

선택 디스크 구성에 '보통의 중복성'을 선택하고, 위치 정보에 사용할 raw device 경로를 입력합니다.

  • 선택 디스크 위치 : /dev/raw/raw3
  • 추가 선택 디스크 1 위치 : /dev/raw/raw4
  • 추가 선택 디스크 2 위치 : /dev/raw/raw5

모두 입력하였으면 <다음>을 클릭합니다.

설치에 대한 요약 정보를 확인할 수 있습니다.

특이사항이 없으면 <설치>를 클릭합니다.

단계별로 설치가 진행됩니다.

먼저 로컬 노드에 소프트웨어를 설치합니다.

로컬 노드에 설치가 완료되었으면, 원격 노드에 설치가 진행됩니다.

소프트웨어 설치가 완료되면, 루트 스크립트 실행 안내 메시지가 나옵니다.

반드시 스크립트 순서대로 모든 노드에 한번씩 실행해야 하며, 절대로 동시에 실행하지 말고 다른 노드의 실행이 완료된 후에 진행해야 합니다.


/u01/app/oracle/oraInventory/orainstRoot.sh



[root@rac1 ~]# /u01/app/oracle/oraInventory/orainstRoot.sh
다음 권한 변경 중/u01/app/oracle/oraInventory 대상 770.
그룹 이름 변경 중 /u01/app/oracle/oraInventory 대상 oinstall.
스크립트 실행이 완료되었습니다.


[root@rac2 ~]# /u01/app/oracle/oraInventory/orainstRoot.sh
다음 권한 변경 중/u01/app/oracle/oraInventory 대상 770.
그룹 이름 변경 중 /u01/app/oracle/oraInventory 대상 oinstall.
스크립트 실행이 완료되었습니다.



먼저 첫번째 스크립트를 1번과 2번 노드에서 실행합니다.

실행 시간이 오래걸리지 않는 스크립트입니다.


/u01/app/oracle/product/10.2.0/crs/root.sh 



[root@rac1 ~]# /u01/app/oracle/product/10.2.0/crs/root.sh
WARNING: directory '/u01/app/oracle/product/10.2.0' is not owned by root
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
Checking to see if Oracle CRS stack is already configured
/etc/oracle does not exist. Creating it now.

Setting the permissions on OCR backup directory
Setting up NS directories
Oracle Cluster Registry configuration upgraded successfully
WARNING: directory '/u01/app/oracle/product/10.2.0' is not owned by root
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
assigning default hostname rac1 for node 1.
assigning default hostname rac2 for node 2.
Successfully accumulated necessary OCR keys.
Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.
node <nodenumber>: <nodename> <private interconnect name> <hostname>
node 1: rac1 rac1-priv rac1
node 2: rac2 rac2-priv rac2
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Now formatting voting device: /dev/raw/raw3
Now formatting voting device: /dev/raw/raw4
Now formatting voting device: /dev/raw/raw5
Format of 3 voting devices complete.
Startup will be queued to init within 90 seconds.
Adding daemons to inittab
Expecting the CRS daemons to be up within 600 seconds.
CSS is active on these nodes.
        rac1
CSS is inactive on these nodes.
        rac2
Local node checking complete.
Run root.sh on remaining nodes to start CRS daemons.


[root@rac2 ~]# /u01/app/oracle/product/10.2.0/crs/root.sh
WARNING: directory '/u01/app/oracle/product/10.2.0' is not owned by root
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
Checking to see if Oracle CRS stack is already configured
/etc/oracle does not exist. Creating it now.

Setting the permissions on OCR backup directory
Setting up NS directories
Oracle Cluster Registry configuration upgraded successfully
WARNING: directory '/u01/app/oracle/product/10.2.0' is not owned by root
WARNING: directory '/u01/app/oracle/product' is not owned by root
WARNING: directory '/u01/app/oracle' is not owned by root
WARNING: directory '/u01/app' is not owned by root
WARNING: directory '/u01' is not owned by root
clscfg: EXISTING configuration version 3 detected.
clscfg: version 3 is 10G Release 2.
assigning default hostname rac1 for node 1.
assigning default hostname rac2 for node 2.
Successfully accumulated necessary OCR keys.
Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.
node <nodenumber>: <nodename> <private interconnect name> <hostname>
node 1: rac1 rac1-priv rac1
node 2: rac2 rac2-priv rac2
clscfg: Arguments check out successfully.

NO KEYS WERE WRITTEN. Supply -force parameter to override.
-force is destructive and will destroy any previous cluster
configuration.
Oracle Cluster Registry for cluster has already been initialized
Startup will be queued to init within 90 seconds.
Adding daemons to inittab
Expecting the CRS daemons to be up within 600 seconds.
CSS is active on these nodes.
        rac1
        rac2
CSS is active on all nodes.
Waiting for the Oracle CRSD and EVMD to start
Oracle CRS stack installed and running under init(1M)
Running vipca(silent) for configuring nodeapps
제공된 인터페이스 "eth0"이(가) 공용이 아닙니다. 가상 IP를 구성하려면 공용 인터페이스를 사용해야 합니다.



두번째 스크립트를 실행합니다.

1번 노드의 스크립트가 완료된 후에 2번에서 실행하기 바랍니다.

스크립트를 완료하였으면 바로 OUI의 <확인> 버튼을 누르지 말고 VIP를 구성하도록 합니다.


vipca


VIP를 설정하기 위해 GUI 터미널 모드에서 root 유저로 접속한 후 vipca를 실행합니다.

(꼭, 1번 노드의 X Window 환경에서 root 유저로 수행하기 바랍니다.)

시작 화면에서 <다음>을 클릭합니다.

VIP를 구성할 노드를 <모두 선택>하고 <다음>을 클릭합니다.

IP 별칭 이름에 VIP 명칭으로 사용될 지정된 이름인 "rac1-vip"와 "rac2-vip"를 노드에 맞게 입력하면 자동으로 IP 주소를 인식합니다.

입력이 정상적으로 되었으면 <다음>을 클릭합니다.

요약 화면에서 구성 정보가 맞는지 확인합니다.

이상이 없으면 <완료>를 클릭합니다.

모든 구성이 완료되면 <확인>을 클릭합니다.

마지막으로 VIP 구성 결과에 대한 정보를 확인합니다.

정상적으로 구성이 되었으면 <종료>를 클릭합니다.

이제 다시 클러스터웨어 설치화면으로 돌아와서 모든 루트 스크립트를 수행했음을 알리기 위해 <확인>을 클릭합니다.

나머지 설정이 진행되고, 모두 성공이 되었으면 <다음>을 클릭합니다.

<설치된 제품>을 클릭하면 새로 설치된 클러스터웨어의 정보를 확인할 수 있습니다.


클러스터웨어 설치가 완료되었으므로 <종료>를 클릭하면 됩니다.

종료 확인 창이 뜨면 <예>를 클릭합니다.


crs_stat -t



[oracle@racdb1 ~]$ crs_stat -t
Name           Type           Target    State     Host
------------------------------------------------------------
ora.rac1.gsd   application    ONLINE    ONLINE    rac1
ora.rac1.ons   application    ONLINE    ONLINE    rac1
ora.rac1.vip   application    ONLINE    ONLINE    rac1
ora.rac2.gsd   application    ONLINE    ONLINE    rac2
ora.rac2.ons   application    ONLINE    ONLINE    rac2
ora.rac2.vip   application    ONLINE    ONLINE    rac2



클러스터 관련 서비스가 기동된 것을 확인할 수 있습니다.