一、创建共享磁盘

先把节点停掉,在wmware server中添加共享磁盘,新添加到磁盘不能和安装系统时的磁盘共用一个驱动器,添加共享磁盘的文件放在另外一个文件夹中;进入Node1的虚拟机目录文件边界node1.vmx文件


添加如下

tools.remindInstall = "TRUE"后面加上下面几行


disk.locking = "FALSE"

diskLib.dataCacheMaxSize = "0"

diskLib.dataCacheMaxReadAheadSize ="0"

diskLib.dataCacheMinReadAheadSize ="0"

diskLib.dataCachePageSize ="4096"

diskLib.maxUnsyncedWrites = "0"


在修改驱动控制器为scsi1.sharedBus = "none" 修改为VIRTUAL


上面的两行要在各个磁盘的后面添加;


scsi1:1.deviceType = "plainDisk"

scsi1:1.redo = ""


主要1代表的是磁盘驱动器,1后面的1 表示是磁盘驱动器上的第几块硬盘,比如我们添加了4快硬盘,配置文件中就会出现1:1  、1:2、1:3、1:4 ,添加时后面的数字要跟磁盘的数字相同;


配置完成后,复制为节点2,这时可以重新启动节点2;在节点2上面要修改主机名,IP地址,grid,oracle,的环境变量参数,修改后启动节点1 ,下面开始安装grid infrastructure;

二、创建节点1 和节点2 ssh的对等性

1、以软件所有者身份登录到node1,验证id

[grid@node1 ~]$ id

uid=1100(grid) gid=1000(oinstall)groups=1000(oinstall),1200(asmadmin),1201(asmdba),1202(asmoper)

[grid@node1 ~]$ id grid

uid=1100(grid) gid=1000(oinstall)groups=1000(oinstall),1200(asmadmin),1201(asmdba),1202(asmoper)

2、在 grid 用户的主目录下创建.ssh 目录并设置相应权限,以确保仅 oracle 用户具有读写权限

[grid@node1 ~]$ mkdir ~/.ssh

[grid@node1 ~]$ chmod 700 .ssh/

3、创建公钥和密码

[grid@node1 .ssh]$ /usr/bin/ssh-keygen -tdsa

Generating public/private dsa key pair.

Enter file in which to save the key(/home/grid/.ssh/id_dsa):

Enter passphrase (empty for no passphrase):

Enter same passphrase again:

Your identification has been saved in/home/grid/.ssh/id_dsa.

Your public key has been saved in/home/grid/.ssh/id_dsa.pub.

The key fingerprint is:

d7:be:b3:59:bc:00:e8:7e:ad:42:d0:f4:27:18:6a:bcgrid@node1.wenxi.com

[grid@node1 .ssh]$ touch authorized_keys

[grid@node1 .ssh]$ ll

total 8

-rw-r--r-- 1 grid oinstall0 May8 18:54 authorized_keys

-rw------- 1 grid oinstall 668 May 8 18:52 id_dsa

-rw-r--r-- 1 grid oinstall 610 May8 18:52 id_dsa.pub

把公钥追加到authorized_kyes里面。然后同样在节点2创建,在把节点2的公钥追加到节点1的authorized_keys里面,最后在把节点1的认证文件分发到节点2上面,然后用grid 和oracle用户用

ssh node1/node2 date 来完成验证;


2、安装ASM驱动和创建ASM磁盘

安装顺序oracleasm-support》oracleasm》oracleasmlib,并且初始化配置;设置grid 为infrastructure的拥有者


3、创建ASM磁盘

先把挂在的硬盘用fdisk工具划分分区,节点2可以用fdisk -l 来查看,用root用户来创建ASM磁盘

[root@node1 named]# /usr/sbin/oracleasm createdisk VOL1 /dev/sdb1

..............


[root@node1 named]# /usr/sbin/oracleasm listdisks
VOL1
VOL2
VOL3
VOL4

节点2用[root@node2 named]# /usr/sbin/oracleasm scandisks来发现磁盘


4、在各个节点开通VNCserver ,grid infrastructure 和oracle 都要用到oui界面




三、安装grid infrastructure

以grid用户来安装;

1、安装前先用grid 自动的检查工具来检查

10.2)、检查安装前的环境需求,利用grid 自带的检查工具,grid 用户;在一个节点检查就可以了


./runcluvfy.shstage –pre crsinst –n node1,node2 –fixup-verbose

我是反复检查了3次,才通过,如果检查不成功,找到失败的,看到是那个rpm包没有安装,就可以用我们开始建立的yum 来安装了;

2、grid 通过vnc登录到node1,进入到grid目录

安装和配置第一个集群》高级安装》语言默认》填写哦scanIP(之前规划的)》添加节点,只要添加节点2就可以了》默认ASM管理磁盘》把创建vol1 ,vol2给grid 组名称为DATA》为asm设置一个口令,一定要记牢》剩下的安装步骤一直next就可以了,

最后会出现一个运行脚本的提示框,登录节点1,分别执行,虽然有说可以并行执行,但是我觉得还是分开按照顺序执行好;


crs_stat -t查看集群的服务状态

oracle 11g rac 环境(2)_oracle11g

oracle 11g rac 环境(2)_oracle11g_02


四、安装oracle rac

1、asmca 创建磁盘组,以grid 用户通过vnc连接node1用asmca来创建之前规划的data 和 flash磁盘


oracle 11g rac 环境(2)_oracle11g_03

oracle 11g rac 环境(2)_oracle11g_04

oracle 11g rac 环境(2)_oracle11g_05

oracle 11g rac 环境(2)_oracle11g_06

oracle 11g rac 环境(2)_oracle11g_07

oracle 11g rac 环境(2)_oracle11g_08

可以看到两个节点都挂在到了刚才创建磁盘组;

下面安装oracle rac 这个和普通的安装过程一样,先不用创建数据库,等下在创建数据;


oracle 11g rac 环境(2)_oracle11g_09

oracle 11g rac 环境(2)_oracle11g_10

oracle 11g rac 环境(2)_oracle11g_11

oracle 11g rac 环境(2)_rac_12

oracle 11g rac 环境(2)_oracle11g_13