การติดตั้ง ระบบ Backup Slony-I

การติดตั้ง ระบบ Backup Slony-I

ตรวจสอบไฟล์ /usr/local/pg_hba.conf เครื่อง Master Server ip =192.168.1.135
local
host
host
host
host

all
all
all
all
all

all
all
all
all
all

127.0.0.1/32
192.168.1.132/32
192.168.1.135/32
192.168.1.0/24

trust
trust
trust
trust
password

ตรวจสอบไฟล์ /usr/local/pg_hba.conf เครื่อง Slave Server ip =192.168.1.135
local
host
host
host
host

all
all
all
all
all

all
all
all
all
all

127.0.0.1/32
192.168.1.135/32
192.168.1.132/32
192.168.1.0/24

trust
trust
trust
trust
password

เริ่มติดตั้ง Slony-I
1.ให้ copy โฟลเดอร์ slony_slave ไปวางที่ /root ของเครื่อง Slave Server
2. แก้ไขไฟล์ slave_setup.sh
DBNAME=06855
HOST1=192.168.1.135
HOST2=192.168.1.132

#DB OF MASTER
#MASTER MACHINE NAME
#SLAVE MACHINE NAME

3.แก้ไฟล์ slave_slon
DBNAME=06855
HOST1=192.168.1.135
HOST2=192.168.1.132

#DB OF MASTER
#MASTER MACHINE NAME
#SLAVE MACHINE NAME

3.สั่งรันไฟล์ master_setup.sh

168.168.1.sh เมื่อสั่งรันไฟล์แล้วจะต้องใส่ password ของ postgres Password for user postgres: postgres Script จะ list ชื่อตารางที่ไม่มี pk มาให้ให้เราไปเพิ่ม Pk ให้ครบก่อนแล้วค่อยมากดปุ้ม enter เพื่อทำ slony table_name ------------------b_hrefer_siteconf history_dlocation history_version temp_occu (4 rows) Please Check Your table pk .สั่งรันไฟล์ master_setup.1.168.132 #DB OF MASTER #MASTER MACHINE NAME #SLAVE MACHINE NAME 6.1. แก้ไขไฟล์ master_setup.168./slave_setup.แก้ไฟล์ master_slon DBNAME=06855 HOST1=192.root@master:~/ slony_master # .ให้ copy โฟลเดอร์ slony_master ไปวางที่ /root ของเครื่อง Master Server 5.1./master_setup.135 HOST2=192.sh root@master:~/ slony_master # .135 HOST2=192.132 #DB OF MASTER #MASTER MACHINE NAME #SLAVE MACHINE NAME 7.sh DBNAME=06855 HOST1=192.sh 4.

tables.----------.table_constraints.19.table_type='BASE TABLE' and information_schema.table_constraints RIGHT JOIN information_schema.tables. ALTER INDEX public.253.-----------http://61.sl_subscribe sub_set ------1 sub_provider -----------1 sub_receiver sub_forward sub_active --------------.table_constraints.ค้นหา ฟิวด์ที่จะทำ pk ได้โดยใช้คำสั่ง select * from b_hrefer_siteconf ผล url namespace -------------------------------------------------.table_schema='public' order by table_name เมื่อครบทุกตารางแล้วให้กด Enter ตรวจสอบว่า Slony-I พร้อมที่จะทำงาน โดยใช้คำสั่ง เช็คทั้ง Master Server และ Slave Server SELECT * FROM _hos_cluster.15:8080/HRefer/HReferService?WSDL 06855 ให้เราเอาฟิวด์ที่ชื่อ url มาสร้าง pk โดยใช้รูปแบบคำสั่ง ALTER TABLE ONLY b_hrefer_siteconf ADD CONSTRAINT b_hrefer_siteconf_pkey PRIMARY KEY (url). ให้เพิ่ม pk จนครบทุกตารางและเช็คซ้ำอีกรอบด้วยคำสั่ง SELECT information_schema.------------2 false true .table_name WHERE information_schema.tables ON information_schema. b_hrefer_siteconf_pkey OWNER TO postgres.tables.table_name Is Null AND information_schema.tables.table_name = information_schema.table_name FROM information_schema.

sh #!/bin/bash PATH=$PATH:/usr/local/pgsql/bin/ CLUSTER=hos_cluster #CLUSTER NAME DBNAME=06855 #DB OF MASTER HOST1=192.0 up 2.sh ifconfig eth0 192.168.168. เปลี่ยน Ip ของเครื่อง Master Server เป็น Ip อื่น โดยแก้ไขไฟล์ master_down.sh root@master:~/slony_master# nano master_down./master_down.168.0 up 3.135 #MASTER MACHINE NAME HOST2=192.Case Study เมื่อระบบหลักล่ม กรณีที่ระบบหลักล่มเราสามารถแก้ไขได้ 2 วิธี คือ วิธีที่ 1 1.255.1.134 netmask 255.255.sh root@master:~/slony_master# . ใช้งานตามปกติ แล้วซ่อมแซมเครื่อง Master Server . สั่งรันไฟล์ master_down.255.sh 3.1.1. เปลี่ยน Ip ของเครื่อง Slave Server ให้เป็น Ip หลักและสั่งหยุดการทำงาน Slony โดยแก้ไขไฟล์ slave_up.132 #SLAVE MACHINE NAME SLONY_USER=postgres #SUPERUSER Must not changed psql -c "drop schema _$CLUSTER cascade" -U $SLONY_USER -h $HOST2 $DBNAME ifconfig eth0 $HOST1 netmask 255.255.

hospital_os.168.cfg ที่อยูในโฟลเดอร์ HospitalOS/Hos3. นำไฟล์ .sh #!/bin/bash PATH=$PATH:/usr/local/pgsql/8.cfg และไฟล์ .วิธีที่ 2 กรณีจะใช้ วิธีที่ 2 จำเป็นต้องใช้ Auto Update Patch โดยต้องใช้ไฟล์ .hospital_os_backup.hospital_os_backup.1.cfg ได้จากการ point ฐานข้อมูลของเครื่อง Slave Server 2.hospital_os.sh root@ubuntu:~/slony_slave# nano client_failover.hospital_os_backup.4SS/bin/ CLUSTER=hos_cluster #CLUSTER NAME DBNAME1=06855 #DB OF MASTER DBNAME2=06855 #SLAVE DB HOST1=192.cfg ได้จากการ point ฐานข้อมูลของเครื่อง Master Server .135 #MASTER MACHINE NAME HOST2=192.cfg .cfg $DBPATH/.168.1.132 #SLAVE MACHINE NAME SLONY_USER=postgres #SUPERUSER DBPATH=/var/www/autoupdate/ psql -c "drop schema _$CLUSTER cascade" -U postgres -h $HOST2 $DBNAME2 cp $DBPATH/.hospital_os.cfg ไปวางที่ path ของ webserver ที่เราใช้ เป็น auto update patch เช่น /var/www/hospitalos/ ของเครื่อง Slave Server .9 ซึ่งเป็นไฟล์ซ่อน จะได้มาจากเรา point ฐานข้อมูลแล้วเลือกไม่ต้องแสดงหน้านี้อีก 1.hospital_os.แก้ไขไฟล์ client_failover.

sh root@ubuntu:~/slony_slave# ./client_failover.เข้าใช้งาน Client ตามปกติแล้วซ่อมแซมเครื่อง Master Server                                                                                                      Nitichai Sriaroon   .3. สั่งรันไฟล์ client_failover.sh 4.

Sign up to vote on this title
UsefulNot useful