1.通过Openfiler实现iscsi共享存储
2.采用OEL6.3KVM虚拟平台下安装两个OEL5.8x64KVM虚拟机实现两RHCS5集群节点3.通过KVM虚拟fence实现fence功能,虽然不能完全实现功能,可以了解与学习RHCS过程。注:采用VMwareESXi虚拟机安装话,可以采用vmware-fence-soap。4.本文建搭建RHCS实验环境测试RHCSGFS2集群文件系统功能与OracleHA功能,经过配置,GFS2文件系统可以很好的工作。本文出自:参考:,本文是该文的再配置过程,重点理解GFS2配置,加深学习映像,经过近段时间的再次学习,主要问题还要在fence设备上。采用kvmRHEL6.X虚拟机可能会很好的实现fence功能,由于本文采用OEL5.8虚拟机,该方式配置还是一个遗憾,本文只是仅做安装过程记录。一、准备基础环境
1.网络环境准备
KVM虚拟机安装配置可以参考:
node01节点
eth0:192.168.233.141node02节点
eth0:192.168.233.142openfiler节点
eth0:192.168.233.1432.配置YUM安装源
在node01,node02上配置如下yum源。
(1)挂载光盘ISO
# mount /dev/cdrom /mnt
(2)配置YUM客户端
说明:通过本地光盘做为yum安装源。(3)openfileriscsi存储配置具体配置略,共划分两块lun,一块10G配置GFS,一块128mb配置表决盘。
二、RHCS软件包的安装
1.配置host文件
2.在node1上安装luci及RHCS软件包
安装luci、ricci、rgmanager、gfs、cman
(1)node1安装RHCS软件包。
# yum install luci ricci cman cman-devel gfs2-utils lvm2-cluster rgmanager system-config-cluster -y
(2)配置RHCS服务开机启动
应为集群配置文件还没有产生配置文件/etc/cluster/cluster.conf。
(3)挂载存储
#在node01上配置
# rpm-ivh iscsi-initiator-utils-6.2.0.872-13.el5.x86_64.rpm# chkconfig iscsi --level 35 on# chkconfig iscsid --level 35 on# service iscsi start
#连接挂载存储
#iscsiadm -m discovery -t st -p 192.168.233.143192.168.233.143:3260,1iqn.2006-01.com.openfiler:tsn.713bbba5efdb#iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.713bbba5efdb -p 192.168.233.143 -l
3.在node2上安装RHCS软件包
安装ricci、rgmanager、gfs、cman
(1)node02安装RHCS软件包。
#yum install ricci cman cman-devel gfs2-utils lvm2-cluster rgmanager system-config-cluster -y
(2)配置RHCS服务开机启动
应为集群配置文件还没有产生配置文件/etc/cluster/cluster.conf。
(3)挂载存储
#在node02上配置
rpm -ivh iscsi-initiator-utils-6.2.0.872-13.el5.x86_64.rpmchkconfig iscsi --level 35 onchkconfig iscsid --level 35 onservice iscsi start#连接挂载存储
# iscsiadm -m discovery -t st -p 192.168.233.143192.168.233.143:3260,1iqn.2006-01.com.openfiler:tsn.713bbba5efdb# iscsiadm -m node -T iqn.2006-01.com.openfiler:tsn.713bbba5efdb -p 192.168.233.143 -l
三、RHCS集群配置
1.在node01管理节点上安装启动luci服务
说明:在node01节点上进行操作。
(1)luci初始化
#luci_admininit (2)配置管理地址admin/1111112.登录luci管理界面开始配置集群
(1)输入登录名与密码登录
(2)登录进管理界面,点击cluster->CreateaNewCluster->填入如下内容:
然后提交,集群会经过install,reboot,config,join两步过程才能成功。
说明:1)这步会生成集群配置文件/etc/cluster/cluster.conf2)也可以直接创建该配置文件。(3)集群配置完毕
点击cluster,可以看到集群与节点都正确加入。
3.两节点分别启动集群服务
(1)ssh到node01上,启动cman服务。
(2)ssh到node02上,启动cman服务。
4.添加故障转移域
(1)配置与准备kvmfence配置,本方式主要是OEL5.X针对KVM虚拟机做RHCS虚拟机的情况。
5.添加与配置fence设备
(1)配置与准备kvmfence配置,本方式主要是OEL5.X针对KVM虚拟机做RHCS虚拟机的情况。
(2)配置与准备kvmfence配置,本方式主要是OEL5.X针对KVM虚拟机做RHCS虚拟机的情况。
(3)分别为node01,node02结点添加fence设备。
node01节点
node02节点
三、RHCS集群GFS2集群文件系统配置
1.配置GFS服务
(1)node1启动CLVM的集成cluster锁服务
# lvmconf --enable-cluster# chkconfig clvmd on# service clvmd start
(2)node2启动CLVM的集成cluster锁服务
2.配置GFS2集群文件系统
(1)在任意一节点对磁盘进行分区,划分出sda1。然后格式化成gfs2.
# fdisk /dev/sda
(2)node01节点上通过共享磁盘创建gfs2集群卷组
Error locking on node node02: Volume group for uuid not found: QkM2JYKg5EfFuFL6LzJsg7oAfK4zVrkytMVzdziWDmVhBGggTsbr47W1HDEu8FdBFailed to activate new LV.
出现以上提示,需要在node2上创建物理卷,有可能需要重启node02。
node02节点上:
回到node1节点上:
(3)格式化GFS文件系统node01节点上:[root@node01 ~]# mkfs.gfs2 -p lock_dlm -t RHCS_HA:gfs2 -j 3 /dev/rhcsgfs/var01
说明:
RHCS_HA:gfs2这个rhcs就是集群的名字,gfs2是定义的名字,相当于标签吧。-j是指定挂载这个文件系统的主机个数,不指定默认为1即为管理节点的。这里实验有两个节点,加上管理主机为33.挂载GFS文件系统
(1)node1,node2手动挂载测试,挂载成功后,创建文件测试集群文件系统情况。
# chkconfig gfs2 on# service gfs2 start# mount.gfs2 /dev/rhcsgfs/var01 /oradata
node01节点:
node02节点:
(2)配置开机自动挂载
#node01节点:#node02节点:
(3)测试集群文件系统读写情况
在node01节点上/oradata目录下创建一个文件,再在第二个节点上查看确认。4.配置表决磁盘
#表决磁盘是共享磁盘,10M大小就可以了,无需要太大,本例采用/dev/sdb1来进行创建。
[root@node1 ~]# fdisk /dev/sdb
(1)创建表决磁盘
[root@node1~]# mkqdisk -c /dev/sdb1 -l qdisk
(2)查看表决磁盘信息
[root@node01~]# mkqdisk -L
(3)配置表决磁盘qdisk
#进入管理界面cluster->clusterlist->点击ClusterName:RHCS_HA;
#选择"QuorumPartition",选择"useaQuorumPartition"(4)启动qdisk服务
node01节点:
node02节点:
chkconfig qdiskd onservice qdiskd start
四、RHCS环境Oracle10g安装配置
1.node01节点上
(1)准备oracle安装环境
(2)安装oracle数据库软件及补丁(3)netca(4)dbca创建数据库,数据库文件,控制文件,redolog文件,闪回区,规档等都创建在/oradata集群文件系统上。2.node02节点上
(1)准备oracle安装环境
(2)安装oracle数据库软件及补丁(3)netca3.从node01拷贝相关参数文件到node02上
(1)node1打包参数文件
$ cd /u01/app/oracle/product/10.2.0/db_1$ tar czvf dbs.tar.gzdbsdbs/dbs/init.oradbs/lkORCLdbs/hc_orcl.datdbs/initdw.oradbs/spfileorcl.oradbs/orapworcl$scp dbs.tar.gz node02:/u01/app/oracle/product/10.2.0/db_1/
(2)node2上
# su - oracle$ mkdir -p /u01/app/oracle/admin/orcl/{adump,bdump,cdump,dpdump,udump}$ cd /u01/app/oracle/product/10.2.0/db_1/$ tar zxvf dbs.tar.gz
4.添加Oracle启动与关闭脚本资源
#启动oracle数据库的脚本,放在/etc/init.d/下面,名称为oracle,不用配置成服务形成,该脚本会由RHCS服务来管理。
#分别在node01,node02上创建如下脚本。# vi /etc/init.d/oracle#!/bin/bashexport ORACLE_HOME=/u01/app/oracle/product/10.2.0/db_1export ORACLE_SID=orclstart() {su - oracle<
五、RHCS环境Oracle10g安装配置
1.配置集群IP资源
点击cluster->RHCS_HA->Resources->AddaResources
选择IP,输入:192.168.233.150选中monitorlink点击submit2.配置集群Oracle启动脚本资源
点击cluster->RHCS_HA->Resources->AddaResources
选择name,输入:dbora选择fullpathtoscriptfile,输入:/etc/init.d/oracle点击submit3.添加数据库服务
(1)创建服务过程
点击cluster->rhcs->Services->AddaServices
ServiceName:oracle10g选中Automaticallystartthisservice选中Failoverdomain选择刚创建的rhcs_failover选中Reoverypolicy(恢复策略)restart点击"addaresourcetothisservice"添加之前创建的"IP资源","Oracle脚本资源"。
选择"enablethisservice",点击"go",即可创建oracle10g服务启动此服务。
查看启动后状态,可以看oracle服务运行在node01节点上。
六、RHCSOralceHA测试
1.查看RHCSHA集群IP资源
(1)在节点node01上查看RHCS服务状态
(2)在节点node02上查看RHCS服务状态
(3)客户端测试数据库
2.手动RHCSOracleHA服务节点切换测试
(1)在任何节点上执行切换服务命令,本例在node01执行切换命令
(2)在node02节点上查看,服务切换正常,服务与IP也都切换到节点2上了。
3.测试故障自动切换1
说明:RHCSHA配置过程中一个关键的部分是配置fence设备,采用一些硬件设备可以使用很好的实现fence功能,由于本文是采用OEL5.8KVM虚拟机实现虚拟fence,所以在RHCS切换功能上需要充分了解,请使用真正意义上的fence设备实现该功能。
(1)本例在node01执行切换命令
将node02destroy关机
将node02开机后,集群服务才切换到node01节点上。
本文安装完毕。