1:查看系统版本
[rac1:root:/hacmp/hacmp5.4/ha5.4/installp/ppc] oslevel -s
6100-06-06-1140
lslpp -al bos.adt.base bos.adt.lib bos.adt.libm bos.perf.libperfstat bos.perf.libperfstat bos.perf.perfstat bos.perf.proctools rsct.basic.rte rsct.compat.clients.rte xlC.aix61.rte bos.data bos.clvm.enh rsct.basic.hacmp
lslpp -al bos.cifs_fs*
lslpp -al bos.cifs_fs*
lslpp -al bos.clvm
查看软件包是否安装
2:安装hacmp 软件
lslpp -p | grep clvm 用于创建并发vg
lslpp -p | grep cluster 检查ha软件是否安装
ha5.4.tar.gz和HA5.4.1.2009.05.22.zip补丁
gunzip ha5.4.tar.gz 解压
tar –xvf ha5.4.tar 解压
安装:
[rac1:root:/hacmp/hacmp5.4/ha5.4/installp/ppc] pwd
/hacmp/hacmp5.4/ha5.4/installp/ppc
安装的时候如果该目录下没有.toc文件,需要手工创建.toc
[rac1:root:/hacmp/hacmp5.4/ha5.4/installp/ppc] inutoc .(中间有空格)
[rac1:root:/hacmp/hacmp5.4/ha5.4/installp/ppc] smit installp
cluster.hativoli cluster.haview rsct.opt.storagerm 这三个不要安装
升级:
需要从5.4.0.0升级到5.4.1.x版本.
#unzip HA5.4.1.2009.05.22.zip
[rac1:root:/hacmp/hacmp5.4/HA5.4.1.2009.05.22] ls | grep toc
.toc
没有的话手工创建 inutoc .
[rac2:root:/hacmp/HA5.4.1.2009.05.22] inutoc .
[rac2:root:/hacmp/HA5.4.1.2009.05.22] smit update _all
lslpp –p | grep cluster 查看是否安装成功
3:安装 clvm
[rac2:root:/] lslpp -l | grep clvm
bos.clvm.enh 6.1.6.16 COMMITTEDEnhanced Concurrent Logical
bos.clvm.enh 6.1.1.1 COMMITTEDEnhanced Concurrent Logical
说明已经安装了
卸载clvm软件
#smitty
选择 bos.clvm.enh这一软件包进行卸载
Preview Only? no
安装clvm:
clvm工具在aix系统安装光盘中,如果需要安装,必须通过光盘来进行安装
[aix205:root:/]smit installp
Install Software---INPUT device / directory for software F4选择/dev/cd0---
4: [rac1:root:/] oslevel -rl 6100-06 查看低于6100-06系统版本的软件,如果有的话,需要重新升级
5:升级完cluster软件之后需要重启
6:重设ip
201:两个网卡都要添加网关
[rac1:root:/] ifconfig –a
[rac1:root:/] ifconfig en1 10.10.10.201 delete
[rac1:root:/] smit mktcpip 设置网卡en1的ip是10.10.10.201 ,一定要添加网关
203:
[rac2:root:/] ifconfig en1 10.10.10.203 delete
[rac1:root:/] smit mktcpip 设置网卡en3的ip是10.10.10.203 一定要添加网关
7:主机名设置
[rac1:root:/] hostname
rac1
[rac1:root:/] smit mkhostname 201设置成node1
[rac1:root:/] smit mkhostname 203设置成node2
8:编辑 /etc/hosts
127.0.0.1 loopback localhost # loopback (lo0) name/address
192.168.1.201 node1
192.168.1.221 node1vip
10.10.10.201 node1priv
192.168.1.203 node2
192.168.1.223 node2vip
10.10.10.203 node2priv
编辑完之后,测试vip有没有被占用
201:ping node1(通) ping node1priv(通)ping node1vip(不通)
203同样
9:选择vg
lspv 确定pvid两边都一致
[rac1:root:/] bootinfo -s hdisk2 查看大小
10:配置ha
(1).创建集群
(2)添加节点
(3).discover
(4).添加网络
(5).添加通信接口(四个都要添加)
(6).创建资源组
(7).创建并发vg
上面选择两个节点之后,201,203都会有racvg,
采用ha来创建vg,不需要自己lvlstmajor来指定给一个majornumber,
创建vg之后可以当做普通vg来
[rac1:root:/] varyonvg racvg
[rac1:root:/] lsvg -l racvg
racvg:
LV NAME TYPE LPsPPs PVs LV STATE MOUNT POINT
(8).201创建rlv
mklv -y test_system -T O -w n -t raw -s n -r n racvg 12
mklv -y test_sysaux -T O -w n -t raw -s n -r n racvg 12
mklv -y test_undotbs1 -T O -w n -t raw -s n -r n racvg 16
mklv -y test_undotbs2 -T O -w n -t raw -s n -r n racvg 16
mklv -y test_temp -T O -w n -t raw -s n -r n racvg 16
mklv -y test_users -T O -w n -t raw -s n -r n racvg 4
mklv -y test_redo1_1 -T O -w n -t raw -s n -r n racvg 2
mklv -y test_redo1_2 -T O -w n -t raw -s n -r n racvg 2
mklv -y test_redo1_3 -T O -w n -t raw -s n -r n racvg 2
mklv -y test_redo2_1 -T O -w n -t raw -s n -r n racvg 2
mklv -y test_redo2_2 -T O -w n -t raw -s n -r n racvg 2
mklv -y test_redo2_3 -T O -w n -t raw -s n -r n racvg 3
mklv -y test_control1 -T O -w n -t raw -s n -r n racvg 1
mklv -y test_control2 -T O -w n -t raw -s n -r n racvg 1
mklv -y test_control3 -T O -w n -t raw -s n -r n racvg 1
mklv -y test_spfile -T O -w n -t raw -s n -r n racvg 1
mklv -y test_ocr -T O -w n -t raw -s n -r n racvg 1
mklv -y test_vote -T O -w n -t raw -s n -r n racvg 1
(9).将lv导入到203
[rac1:root:/dev] lsvg -l racvg 查看
先导出203的racvg,因为之前创建ha创建vg的时候ha自动importvg到203
[rac2:root:/etc] exportvg racvg
[rac1:root:/etc] ls -l /dev/racvg 确定要导出vg的majornumber
crw-rw---- 1 rootsystem 89, 0 Sep 24 15:11 /dev/racvg
[rac1:root:/etc] varyoffvg racvg // 201节点varyoffvg
[rac2:root:/etc] importvg -V 89 -y racvg hdisk3
(10).添加资源组属性
----》
(11).同步
(12).启动ha
启动之后两个节点
相当于varyonvg –c racvg 让racvg处于concurrent状态
11. ha配置完成之后,修改核心参数
一行一行的执行,两个节点都要执行
vmo -p -o minperm%=3
vmo -p -o maxperm%=90
vmo -p -o maxclient%=90
vmo -p -o lru_file_repage=0
vmo -p -o strict_maxclient=1
vmo -p -o strict_maxperm=0
chdev -l sys0 -a maxuproc=16384
chdev -l sys0 -a ncargs=256
12:内部通信
no -r -o ipqmaxlen=512
no -p -o rfc1323=1
no -p -o sb_max=1500000
no -p -o tcp_sendspace=262144
no -p -o tcp_recvspace=262144
no -p -o udp_sendspace=65536
no -p -o udp_recvspace=262144
两个节点都要执行
13:确定用户
oracle的附属组:dba,hagsuser
oracle 的主属组:oinstall
如果要重建的话先smit rmuser 删除oracle用户,再 smit rmgroup删除 dba,oinstall,hagsuser
然后再到/home下删除oracle目录
最后通过cat /etc/passwd和/etc/group查看是否删除干净
创建组:
dba 1000
oinstall 1100
hagsuser 1200
用户:
oracle 1300
创建oracle:
[rac1:root:/home] id oracle
uid=1300(oracle) gid=1100(oinstall) groups=0(system),3(sys),1000(dba),1200(hagsuser)
[rac2:root:/home] id oracle
uid=1300(oracle) gid=1100(oinstall) groups=0(system),3(sys),1000(dba),1200(hagsuser)
创建之后oracle用户之后设置密码
[rac1:root:/home] passwd oracle
设置完成之后重新连接登录一次
14:配置互信
配置互信oracle 用户创建 10g 用rsh
[node1:oracle:/home/oracle] rsh node1 date
Tue Sep 24 16:57:14 CDT 2013
[node1:oracle:/home/oracle] rsh node2 date
Tue Sep 24 16:58:35 CDT 2013
[node1:oracle:/home/oracle] rsh node1priv date
Tue Sep 24 16:57:29 CDT 2013
[node1:oracle:/home/oracle] rsh node2priv date
Tue Sep 24 16:58:49 CDT 2013
15:创建目录安装集群和oracle软件
[node2:oracle:/home/oracle] df –g查看rootvg大小和使用情况
[node1:oracle:/home/oracle] lsvg -l rootvg 发现/dev/oralv属于rootvg
如果觉得/oracle大小不够chfs -a size=+3G /oracle
创建目录
mkdir -p /oracle/app/oracle/product/10.2/db
mkdir -p /oracle/app/oracle/product/10.2/crs
chown -R oracle:oinstall /oracle
chmod -R 775 /oracle
[node1:root:/] ls -l | grep oracle
drwxrwxr-x 6 oracle oinstall 256 Sep 24 17:14 oracle
两个节点都要
16:编辑.profle文件和.dtprofile
如果没有.dtprofile需要登录图形界面
[node1:oracle:/home/oracle] vi .profile
[node1:oracle:/home/oracle] cat .profile
PATH=/usr/bin:/etc:/usr/sbin:/usr/ucb:$HOME/bin:/usr/bin/X11:/sbin:.
export PATH
if [ -s "$MAIL" ] # This is at Shell startup. In normal
then echo "$MAILMSG" # operation, the Shell checks
fi # periodically.
export ORACLE_BASE=/oracle/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10.2/db
export ORA_CRS_HOME=$ORACLE_BASE/product/10.2/crs
export PATH=$ORA_CRS_HOME/bin:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch:$PATH
#export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
[node2:oracle:/home/oracle] vi .dtprofile //要登录图形界面才会有此文件
17:修改裸设备权限:
停掉ha
[node1:root:/dev] ls -l rtest_*
[node1:root:/dev] chown oracle:oinstall rtest_*
两个节点都要
18:开始安装
1.启动ha(两个节点都要选择)
2.执行cluster集群软件下的rootpre.sh安装节点执行就行
[node1:root:/oracle/software/cluster/Disk1/rootpre] ./rootpre.sh
3.执行path下的rootpre.sh两个节点都要
[node1:root:/oracle/software/patch] ./rootpre.sh
4.在图形界面中执行
[node1:root:/oracle/app/oracle/product/10.2/crs/bin] ./oifcfg setif -global en0/192.168.1.0:public
[node1:root:/oracle/app/oracle/product/10.2/crs/bin] ./oifcfg setif -global en1/10.10.10.0:cluster_interconnect
[node1:root:/oracle/app/oracle/product/10.2/crs/bin] ./oifcfg getif
en0 192.168.1.0 globalpublic
en1 10.10.10.0 globalcluster_interconnect
5.安装oracle软件
1.执行[node1:root:/oracle/software/database/Disk1/rootpre] ./rootpre.sh
2.安装(如果中间卡死,重新安装的时候只需要删除$ORACLE_HOME/下的文件)
6:升级集群软件和库
l 升级集群
l 升级oracle软件
7:创建监听 netca
8:dbca建库
[node1:oracle:/home/oracle] vi map.txt
system=/dev/rtest_system
sysaux=/dev/rtest_sysaux
undotbs1=/dev/rtest_undotbs1
undotbs2=/dev/rtest_undotbs2
temp=/dev/rtest_temp
users=/dev/rtest_users
redo1_1=/dev/rtest_redo1_1
redo1_2=/dev/rtest_redo1_2
redo1_3=/dev/rtest_redo1_3
redo2_1=/dev/rtest_redo2_1
redo2_2=/dev/rtest_redo2_2
redo2_3=/dev/rtest_redo2_3
control1=/dev/rtest_control1
control2=/dev/rtest_control2
control3=/dev/rtest_control3
spfile=/dev/rtest_spfile