使用RHCS創(chuàng)建Linux高可用群集-創(chuàng)新互聯(lián)

基礎(chǔ)環(huán)境準(zhǔn)備

環(huán)境拓?fù)鋱D

使用RHCS創(chuàng)建Linux高可用群集

創(chuàng)新互聯(lián)堅(jiān)持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:成都網(wǎng)站設(shè)計(jì)、做網(wǎng)站、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿足客戶于互聯(lián)網(wǎng)時(shí)代的資中網(wǎng)站設(shè)計(jì)、移動媒體設(shè)計(jì)的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!
Linux基本服務(wù)設(shè)定

關(guān)閉iptables

#/etc/init.d/iptables stop

#chkconfig iptables off

#chkconfig list | grep iptables

關(guān)閉selinux

#setenforce 0

#vi /etc/selinux/config

# This file controls the state of SELinux on the system.

# SELINUX= can take one of these three values:

# enforcing - SELinux security policy is enforced.

# permissive - SELinux prints warnings instead of enforcing.

# disabled - No SELinux policy is loaded.

SELINUX=disabled

# SELINUXTYPE= can take one of these two values:

# targeted - Only targeted network daemons are protected.

# strict - Full SELinux protection.

SELINUXTYPE=targeted

關(guān)閉NetworkManager

#/etc/init.d/NetworkManager stop

#chkconfig NetworkManager off

#chkconfig list | grep NetworkManager

雙機(jī)互信

# mkdir ~/.ssh

# chmod 700 ~/.ssh

# ssh-keygen -t rsa

enter

enter

enter

# ssh-keygen -t dsa

enter

enter

enter

N1PMCSAP01執(zhí)行

# cat ~/.ssh/*.pub >> ~/.ssh/authorized_keys

# ssh N1PMCSAP02 cat ~/.ssh/*.pub >> ~/.ssh/authorized_keys

yes

N1PMCSAP02的密碼

# scp ~/.ssh/authorized_keys N1PMCSAP02:~/.ssh/authorized_keys

存儲多路徑配置

使用RHCS創(chuàng)建Linux高可用群集

使用autoscan.sh腳本刷新IBM存儲路徑

使用RHCS創(chuàng)建Linux高可用群集

查看存儲底層WWID

NAME

WWID

Capcity

Path

Dataqdisk

360050763808101269800000000000003

5GB

4

Data

360050763808101269800000000000001

328GB

4

創(chuàng)建多路徑配置文件

#vi /etc/multipath.conf

使用RHCS創(chuàng)建Linux高可用群集

Blacklist devnode默認(rèn)為^sd[a]需要修改為^sd[i]本環(huán)境Root分區(qū)為sdi,屏蔽本地硬盤

使用RHCS創(chuàng)建Linux高可用群集

配置完畢后,重啟multipathd服務(wù)

/etc/init.d/multipathd restart

使用RHCS創(chuàng)建Linux高可用群集

使用multipath -v2命令刷新存儲路徑

多網(wǎng)卡綁定

網(wǎng)卡綁定拓?fù)鋱D

使用RHCS創(chuàng)建Linux高可用群集

使用RHCS創(chuàng)建Linux高可用群集

修改vi /etc/modules.conf

使用RHCS創(chuàng)建Linux高可用群集

創(chuàng)建網(wǎng)卡綁定配置文件

N1PMCSAP01 Bond配置

[root@N1PMCSAP01 /]# vi /etc/sysconfig/network-scripts/ifcfg-eth2

DEVICE=eth2

# HWADDR=A0:36:9F:DA:DA:CD

TYPE=Ethernet

UUID=3ca5c4fe-44cd-4c50-b3f1-8082e1c1c94d

ONBOOT=yes

NM_CONTROLLED=no

BOOTPROTO=none

MASTER=bond0

SLAVE=yes

[root@N1PMCSAP01 /]# vi /etc/sysconfig/network-scripts/ifcfg-eth4

DEVICE=eth4

# HWADDR=A0:36:9F:DA:DA:CB

TYPE=Ethernet

UUID=1d47913a-b11c-432c-b70f-479a05da2c71

ONBOOT=yes

NM_CONTROLLED=no

BOOTPROTO=none

MASTER=bond0

SLAVE=yes

[root@N1PMCSAP01 /]# vi /etc/sysconfig/network-scripts/ifcfg-bond0

DEVICE=bond0

# HWADDR=A0:36:9F:DA:DA:CC

TYPE=Ethernet

UUID=a099350a-8dfa-4d3f-b444-a08f9703cdc2

ONBOOT=yes

NM_CONTROLLED=no

BOOTPROTO=satic

IPADDR=10.51.66.11

NETMASK=255.255.248.0

GATEWAY=10.51.71.254

N1PMCSAP02 Bond配置

[root@N1PMCSAP02 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth2

DEVICE=eth2

# HWADDR=A0:36:9F:DA:DA:D1

TYPE=Ethernet

UUID=8e0abf44-360a-4187-ab65-42859d789f57

ONBOOT=yes

NM_CONTROLLED=no

BOOTPROTO=none

MASTER=bond0

SLAVE=yes

[root@N1PMCSAP02 ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth4

DEVICE=eth4

# HWADDR=A0:36:9F:DA:DA:B1

TYPE=Ethernet

UUID=d300f10b-0474-4229-b3a3-50d95e6056c8

ONBOOT=yes

NM_CONTROLLED=no

BOOTPROTO=none

MASTER=bond0

SLAVE=yes

[root@N1PMCSAP02 ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond0

DEVICE=bond0

# HWADDR=A0:36:9F:DA:DA:D0

TYPE=Ethernet

UUID=2288f4e1-6743-4faa-abfb-e83ec4f9443c

ONBOOT=yes

NM_CONTROLLED=no

BOOTPROTO=static

IPADDR=10.51.66.12

NETMASK=255.255.248.0

GATEWAY=10.51.71.254

主機(jī)Host配置

使用RHCS創(chuàng)建Linux高可用群集

在N1PMCSAP01和N1PMCSAP02中配置hosts文件

#Vi /etc/hosts

RHEL本地源配置

more /etc/yum.repos.d/rhel-source.repo

[rhel_6_iso]

name=local iso

baseurl=file:///media

gpgcheck=1

gpgkey=file:///media/RPM-GPG-KEY-redhat-release

[HighAvailability]

name=HighAvailability

baseurl=file:///media/HighAvailability

gpgcheck=1

gpgkey=file:///media/RPM-GPG-KEY-redhat-release

[LoadBalancer]

name=LoadBalancer

baseurl=file:///media/LoadBalancer

gpgcheck=1

gpgkey=file:///media/RPM-GPG-KEY-redhat-release

[ResilientStorage]

name=ResilientStorage

baseurl=file:///media/ResilientStorage

gpgcheck=1

gpgkey=file:///media/RPM-GPG-KEY-redhat-release

[ScalableFilesystem]

name=ScalableFileSystem

baseurl=file:///media/ScalableFileSystem

gpgcheck=1

gpgkey=file:///media/RPM-GPG-KEY-redhat-release

文件系統(tǒng)格式化

[root@N1PMCSAP01 /]# pvdisplay

connect() failed on local socket: No such file or directory

Internal cluster locking initialisation failed.

WARNING: Falling back to local file-based locking.

Volume Groups with the clustered attribute will be inaccessible.

--- Physical volume ---

PV Name /dev/sdi2

VG Name VolGroup

PV Size 556.44 GiB / not usable 3.00 MiB

Allocatable yes (but full)

PE Size 4.00 MiB

Total PE 142448

Free PE 0

Allocated PE 142448

PV UUID 0fSZ8Q-Ay1W-ef2n-9ve2-RxzM-t3GV-u4rrQ2

--- Physical volume ---

PV Name /dev/mapper/data

VG Name vg_data

PV Size 328.40 GiB / not usable 1.60 MiB

Allocatable yes (but full)

PE Size 4.00 MiB

Total PE 84070

Free PE 0

Allocated PE 84070

PV UUID kJvd3t-t7V5-MULX-7Kj6-OI2f-vn3r-QXN8tr

[root@N1PMCSAP01 /]# vgdisplay

System ID

Format lvm2

Metadata Areas 1

Metadata Sequence No 4

VG Access read/write

VG Status resizable

MAX LV 0

Cur LV 3

Open LV 3

Max PV 0

Cur PV 1

Act PV 1

VG Size 556.44 GiB

PE Size 4.00 MiB

Total PE 142448

Alloc PE / Size 142448 / 556.44 GiB

Free PE / Size 0 / 0

VG UUID 6q2td7-AxWX-4K4K-8vy6-ngRs-IIdP-peMpCU

--- Volume group ---

VG Name vg_data

System ID

Format lvm2

Metadata Areas 1

Metadata Sequence No 3

VG Access read/write

VG Status resizable

MAX LV 0

Cur LV 1

Open LV 1

Max PV 0

Cur PV 1

Act PV 1

VG Size 328.40 GiB

PE Size 4.00 MiB

Total PE 84070

Alloc PE / Size 84070 / 328.40 GiB

Free PE / Size 0 / 0

VG UUID GfMy0O-QcmQ-pkt4-zf1i-yKpu-6c2i-JUoSM2

[root@N1PMCSAP01 /]# lvdisplay

--- Logical volume ---

LV Path /dev/vg_data/lv_data

LV Name lv_data

VG Name vg_data

LV UUID 1AMJnu-8UnC-mmGb-7s7N-P0Wg-eeOj-pXrHV6

LV Write Access read/write

LV Creation host, time N1PMCSAP01, 2017-05-26 11:23:04 -0400

LV Status available

# open 1

LV Size 328.40 GiB

Current LE 84070

Segments 1

Allocation inherit

Read ahead sectors auto

- currently set to 256

Block device 253:5

RHCS軟件組件安裝

# yum -y install cman ricci rgmanager luci

使用RHCS創(chuàng)建Linux高可用群集

修改ricci用戶名密碼

#passwd ricci

ricc password:redhat

RHCS群集設(shè)定

LUCI圖形化界面

使用RHCS創(chuàng)建Linux高可用群集

使用瀏覽器登錄https://10.51.56.11:8084/

用戶名root,密碼redhat(默認(rèn)密碼未修改)

群集創(chuàng)建

使用RHCS創(chuàng)建Linux高可用群集

點(diǎn)擊左上角Manage Cluster創(chuàng)建群集

Node Name

NODE ID

Votes

Ricci user

Ricci password

HOSTNAME

N1PMCSAP01-PRIV

1

1

ricci

redhat

N1PMCSAP01-PRIV

N1PMCSAP02-PRIV

2

1

ricci

redhat

N1PMCSAP02-PRIV

Fence Device配置

使用RHCS創(chuàng)建Linux高可用群集使用RHCS創(chuàng)建Linux高可用群集

由于群集只有2節(jié)點(diǎn),可能產(chǎn)生腦裂情況,所以在主機(jī)出現(xiàn)故障的時(shí)候,需要使用Fence機(jī)制仲裁哪臺主機(jī)脫離群集,而Fence最佳實(shí)踐就是采用主板集成的IMM端口,IBM稱為IMM模塊,HPE則為ILO,DELL為IDRAC,其目的是強(qiáng)制服務(wù)器重新POST開機(jī),從而達(dá)到釋放資源的目的,圖中左上角RJ45網(wǎng)口為IMM端口

使用RHCS創(chuàng)建Linux高可用群集

N1PMCSAP01 Fence設(shè)備設(shè)定參數(shù),用戶名:USERID,密碼:PASSW0RD

使用RHCS創(chuàng)建Linux高可用群集

N1PMCSAP02 Fence設(shè)備設(shè)定參數(shù),用戶名:USERID,密碼:PASSW0RD

Failover Domain配置

使用RHCS創(chuàng)建Linux高可用群集

群集資源配置

使用RHCS創(chuàng)建Linux高可用群集

一般來說某個(gè)應(yīng)用程序都應(yīng)該包含其依賴的資源,例如IP地址、存儲介質(zhì)、服務(wù)腳本(應(yīng)用程序)

群集資源配置中需要配置好各種資源的屬性參數(shù),圖中10.51.66.1為IP資源,定義了群集應(yīng)用程序的IP地址

使用RHCS創(chuàng)建Linux高可用群集

Lv_data為群集磁盤資源,定義了磁盤的掛載點(diǎn),及物理塊設(shè)備的位置

使用RHCS創(chuàng)建Linux高可用群集

McsCluster則為應(yīng)用程序啟動腳本,定義了啟動腳本的位置

Service Groups配置

使用RHCS創(chuàng)建Linux高可用群集

Service Group可定義一個(gè)或一組應(yīng)用,包含該應(yīng)用所需要的所有資源,以及啟動優(yōu)先等級,管理員可在這個(gè)界面手動切換服務(wù)運(yùn)行的主機(jī),及恢復(fù)策略

其他高級設(shè)定

使用RHCS創(chuàng)建Linux高可用群集使用RHCS創(chuàng)建Linux高可用群集

為了防止群集加入時(shí)來回Fence,這里配置了Post Join Delay為3秒

查看群集配置文件

最后可通過命令查看群集所有的配置

#cat /etc/cluster/cluster.conf

[root@N1PMCSAP01 ~]# vi /etc/cluster/cluster.conf

<fence>

<method name="N1PMCSAP01_Method">

<device name="N1PMCSAP01_FD"/>

</method>

</fence>

</clusternode>

<clusternode name="N1PMCSAP02-PRIV" nodeid="2">

<fence>

<method name="N1PMCSAP02_Method">

<device name="N1PMCSAP02_FD"/>

</method>

</fence>

</clusternode>

</clusternodes>

<cman expected_votes="1" two_node="1"/>

<rm>

<failoverdomains>

<failoverdomain name="N1PMCSAP-FD" nofailback="1" ordered="1">

<failoverdomainnode name="N1PMCSAP01-PRIV" priority="1"/>

<failoverdomainnode name="N1PMCSAP02-PRIV" priority="2"/>

</failoverdomain>

</failoverdomains>

<resources>

<ip address="10.51.66.1" sleeptime="10"/>

<fs device="/dev/vg_data/lv_data" force_unmount="1" fsid="25430" mountpoint="/u01" name="lv_data" self_fence="1"/>

<script file="/home/mcs/cluster/McsCluster" name="McsCluster"/>

</resources>

<service domain="N1PMCSAP-FD" name="APP" recovery="disable">

<fs ref="lv_data">

<ip ref="10.51.66.1"/>

</fs>

<script ref="McsCluster"/>

</service>

</rm>

<fencedevices>

<fencedevice agent="fence_imm" ipaddr="10.51.188.177" login="USERID" name="N1PMCSAP01_FD" passwd="PASSW0RD"/>

<fencedevice agent="fence_imm" ipaddr="10.51.188.178" login="USERID" name="N1PMCSAP02_FD" passwd="PASSW0RD"/>

</fencedevices>

</cluster>

該配置文件在N1PMCSAP01和N1PMCSAP02兩臺主機(jī)中是保持一致的

RHCS群集使用方法

查看群集狀態(tài)

使用Clustat命令查看運(yùn)行狀態(tài)

[root@N1PMCSAP01 /]# clustat -l

Cluster Status for N1PMCSAP @ Fri May 26 14:13:25 2017

Member Status: Quorate

Member Name ID Status

------ ---- ---- ------

N1PMCSAP01-PRIV 1 Online, Local, rgmanager

N1PMCSAP02-PRIV 2 Online, rgmanager

Service Information

------- -----------

Service Name : service:APP

Current State : started (112)

Flags : none (0)

Owner : N1PMCSAP01-PRIV

Last Owner : N1PMCSAP01-PRIV

Last Transition : Fri May 26 13:55:45 2017

Current State為服務(wù)正在運(yùn)行狀態(tài)

Owner為正在運(yùn)行服務(wù)的節(jié)點(diǎn)

手動切換群集

[root@N1PMCSAP01 /]# clusvcadm -r APP(Service Group Name) -m N1PMCSAP02(Host Member)

#手動從節(jié)點(diǎn)1切換至節(jié)點(diǎn)2

[root@N1PMCSAP01 /]# clusvcadm -d APP(Service Group Name)

#手動停止APP服務(wù)

[root@N1PMCSAP01 /]# clusvcadm -e APP(Service Group Name)

#手動啟用APP服務(wù)

[root@N1PMCSAP01 /]# clusvcadm -M APP(Service Group Name) -m N1PMCSAP02(Host Member)

#將Owner優(yōu)先級設(shè)定為N1PMCSAP02優(yōu)先

自動切換群集

當(dāng)服務(wù)器硬件出現(xiàn)故障時(shí),心跳網(wǎng)絡(luò)不可達(dá)對方時(shí),RHCS群集會自動重啟故障服務(wù)器,將資源切換至狀態(tài)完好的另一臺服務(wù)器,當(dāng)硬件修復(fù)完畢后,管理員可選擇是否將服務(wù)回切

注意:

不要同時(shí)拔出兩臺服務(wù)器的心跳網(wǎng)絡(luò),會造成腦裂

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)cdcxhl.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。

網(wǎng)頁標(biāo)題:使用RHCS創(chuàng)建Linux高可用群集-創(chuàng)新互聯(lián)
URL分享:http://muchs.cn/article0/csjeio.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供做網(wǎng)站定制開發(fā)、網(wǎng)站建設(shè)、企業(yè)建站、品牌網(wǎng)站建設(shè)、品牌網(wǎng)站設(shè)計(jì)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站建設(shè)網(wǎng)站維護(hù)公司