내용 목차
본 절에서는 TAC(Tibero Active Cluster) 환경을 구축하기 위한 Tibero의 설치 방법을 설명한다.
TAC를 구축하기 전에 다음의 사항을 확인한다.
시스템 요구사항
TAC 설치를 위한 시스템 요구사항의 내용은 “1.3. 시스템 요구 사항”을 참고한다.
설치 전 준비사항
TAC를 구성 전 “제2장 설치 전 준비사항”을 참고하여 기본적인 사항을 점검한다.
IP 주소 및 포트 정보 확인
소켓 버퍼 설정
공유 디스크 타입 확인
설치를 시작하기 전에 IP 주소와 포트 번호를 확인한다. 기존 Tibero 단일 인스턴스에서 필요로 하는 IP 주소(외부 IP 주소)와 Listener 포트 번호 외에 추가로 Interconnect IP 주소와 포트 번호, CM 포트 번호가 필요하다.
IP 주소
구분 | 설명 |
---|---|
외부 IP 주소 | 외부 통신을 위해 부여될 IP 주소를 확인한다. |
Interconnect IP 주소 | 각 노드 간 통신을 위해 부여될 내부 IP 주소를 확인한다. |
포트 번호
구분 | 설명 |
---|---|
Listener 포트 번호 | 각 노드의 Tibero 인스턴스를 기동할 때 부여될 포트 번호를 확인한다. |
CM 포트 번호 | 각 노드의 통신을 위한 CM에 부여될 포트 번호를 확인한다. |
Interconnect 포트 번호 | 각 노드의 Tibero 인스턴스 간에 통신할 포트 번호를 확인한다. |
운영체제의 소켓 버퍼 값을 설정한다.
파라미터 | 권장 값 |
---|---|
SB_MAX | 4194304 |
TCP_RECVSPACE | 4194304 |
TCP_SENDSPACE | 1048576 |
sb_max 파라미터는 AIX 운영체제에만 해당한다.
TAC는 모든 인스턴스가 같이 사용할 수 있는 공유 디스크의 공간을 필요로 한다.
TAC의 실행과 운영을 위해서는 최소 9개의 공유 파일이 필요하다. 파일의 위치는 설치할 때 사용자에게 입력받는 {SHARED_DISK_HOME}을 기준으로 생성되며 노드마다 필요로 하는 파일은 {TAC_INSTANCE_ID}를 붙여서 생성한다. 예를 들어 {SHARED_DISK_HOME}이 dev/tac이고 {TAC_INSTANCE_ID}가 0일 경우 Undo 로그 파일의 경로는 'dev/tac/UNDO0.tdf'이다.
다음은 처음 노드를 설치할 때 필요한 공유 파일의 목록과 파일 생성 경로이다.
파일 | 경로 |
---|---|
컨트롤 파일 | {SHARED_DISK_HOME}/c1.ctl(변경 가능) |
TBCM 파일 | {SHARED_DISK_HOME}/tbcm.ctl(변경 가능) |
Redo 로그 파일 | {SHARED_DISK_HOME}/log{TAC_INSTANCE_ID}1.log {SHARED_DISK_HOME}/log{TAC_INSTANCE_ID}2.log {SHARED_DISK_HOME}/log{TAC_INSTANCE_ID}3.log |
Undo 로그 파일 | {SHARED_DISK_HOME}/UNDO{TAC_INSTANCE_ID}.tdf |
사용자 테이블 스페이스 파일 | {SHARED_DISK_HOME}/usr001.tdf |
시스템 테이블 스페이스 파일 | {SHARED_DISK_HOME}/system001.tdf |
임시 테이블 스페이스 파일 | {SHARED_DISK_HOME}/temp001.tdf |
하드웨어 특성상 위의 설정 대로 파일명을 사용할 수 없는 경우는 Symbolic Link를 활용한다.
처음 노드 설치 이후 추가적으로 노드를 설치하기 위해 각 노드당 4개의 공유 파일이 요구된다. 각 파일의 경로는 위의 표를 참고한다.
Redo 로그 파일 3개
Undo 로그 파일
공유 디스크로 Raw Device를 사용할 경우 위의 각 공유 파일들은 하나의 Raw Device 파일에 해당하며 설치하기 전에 미리 Raw Device 관리자에게 해당 파일을 생성해 줄 것을 요청해야 한다. 단, 각 파일의 크기는 충분해야 하고 Block Size는 512로 맞추어져 있어야 하며 Charater Type으로 설정해야 한다.
컨트롤 파일과 TBCM 파일의 이름은 Custom 모드로 설치하여 사용자가 원하는 경로를 입력할 수 있다.
설치 후 정상 작동 여부 확인은 tbcm 명령을 이용하여 수행할 수 있다.
tbcm -s
실행 후 나타나는 화면을 통하여 전체 클러스터와 각 노드의 상태를 확인할 수 있다.
======================= LOCAL STATUS =========================== NODE NAME : [101] tbcm@10.0.2.15:8639 CLUSTER MODE : ACTIVE_SHARED (FENCE_OFF) STATUS : SERVICE ACTIVE [CMD_LOCK] INCARNATION_NO : 4 (ACK 4, COMMIT 4) HEARTBEAT PERIOD : 300 ticks (1 tick = 1000000 micro-sec) SERVICE PROBE PERIOD : 10 ticks (expires 10 ticks later) SERVICE DOWN CMD : "/home/tac/Tibero/tibero5/scripts/cm_down_cmd.sh" CONTROL FILE NAME : /dev/tac/tbcm.ctl (512 byte-block) CONTROL FILE EXPIRE : 299 ticks later ======================= CLUSTER STATUS ========================= INCARNATION_NO : 4 (COMMIT 4) FILE HEADER SIZE : 512 bytes ( 512 byte-block ) # of NODES : 1 nodes (LAST_ID = 101) MASTER NODE : [101] tbcm@10.0.2.15:8639 MEMBERSHIP : AUTO (SPLIT) NODE LIST... #0 ( ON) SERVICE ACTIVE ( 512) [101] tbcm@10.0.2.15:8639 ===================== OTHER NODE STATUS ========================
tbcm 명령의 자세한 사용법은 "Tibero 관리자 안내서"를 참고한다.
TAC 환경에서 한 노드를 제거하기 위한 방법에는 콘솔 모드와 수동 모드가 있다.
콘솔 모드로 하나의 노드를 제거하는 순서는 다음과 같다.
Tibero 인스턴스를 종료한다.
tbdown
TBCM을 종료한다.
tbcm -d
Tibero가 설치된 디렉터리를 포함한 모든 하위 디렉터리를 해당 운영체제의 명령어로 삭제한다.
$ rm –rf $TB_HOME
수동 모드로 하나의 노드를 제거하는 순서는 다음과 같다.
Tibero 인스턴스를 종료한다.
tbdown
TBCM을 종료한다.
tbcm -d
Tibero 인스턴스가 설치된 디렉터리를 포함한 모든 하위 디렉터리를 삭제한다.
rm –rf $TB_HOME