linux环境搭建达梦dsc集群

  • 准备工作
  • 安装DM数据库
  • 划分共享磁盘
  • 配置DSC节点文件
  • 启动DCS集群
  • 监视器配置


准备工作

新建共享磁盘
分别在两台虚拟机关机时,编辑虚拟机设置
在1号机选择新建虚拟磁盘,将虚拟磁盘存储为单个文件。虚拟磁盘类型选择SCSI
在2号机新建虚拟磁盘,选择使用现有虚拟磁盘,将1号机的磁盘目录拿过来
完成以上步骤之后,如果直接开启虚拟机,虚拟机会因为磁盘锁机制,无法同时开启两台而报错。因此需要在虚拟机的.vmx文件加上如下代码:

disk.locking = "FALSE"

现在打开虚拟机,两台虚拟机均可以正常启动

安装DM数据库

groupadd dinstall   //创建用户组
useradd -g dinstall -d /home/dmdba dmdba    //创建用户及用户目录
chmod 755 dm7_setup_rh7_64_ent_7.6.1.60_20200603.iso
mount dm7_setup_rh7_64_ent_7.6.1.60_20200603.iso  /mnt/
chmod 755 DMInstall.bin 
chown -R dmdba:dinstall DMInstall.bin
su -dmdba
./DMInstall.bin -i          //-i表示命令行安装

此处注意用dmdba用户安装后需要用root执行一条语句。

划分共享磁盘

fdisk /dev/sdb

按照需求大小进行分盘
下面是我的操作:
n,p,1,默认,+200M
n,p,2,默认,+200M
n,p,3,默认,+4096M
n,p,默认,默认,默认
w(保存信息)

在两台机器上的/etc/udev/rules.d/目录下新建60-raw.rules文件

ACTION=="add" , KERNEL=="sdb1", RUN+="/bin/raw /dev/raw/raw1 %N"
ACTION=="add", KERNEL=="sdb2", RUN+="/bin/raw /dev/raw/raw2 %N"
ACTION=="add", KERNEL=="sdb3", RUN+="/bin/raw /dev/raw/raw3 %N"
ACTION=="add", KERNEL=="sdb4", RUN+="/bin/raw /dev/raw/raw4 %N"
ACTION=="add", KERNEL=="raw[1-4]", OWNER="dmdba", GROUP="dinstall", MODE="660"

两个DSC节点分别执行:

partprobe /dev/sdb

1号机执行:

udevadm trigger --action=add

配置DSC节点文件

在DSC0上配置/home/dmdba/dmdbms/目录下新建data/dsc/两个目录,在dsc目录下新建配置文件dmdcr_cfg.ini,内容如下:

DCR_N_GRP = 3
DCR_VTD_PATH = /dev/raw/raw2
DCR_OGUID = 63635
[GRP]
DCR_GRP_TYPE = CSS
DCR_GRP_NAME = GRP_CSS
DCR_GRP_N_EP = 2
DCR_GRP_DSKCHK_CNT = 60
[GRP_CSS]
DCR_EP_NAME = CSS0
DCR_EP_HOST = 192.168.150.144
DCR_EP_PORT = 9341
[GRP_CSS]
DCR_EP_NAME = CSS1
DCR_EP_HOST = 192.168.150.158
DCR_EP_PORT = 9343
[GRP]
DCR_GRP_TYPE = ASM
DCR_GRP_NAME = GRP_ASM
DCR_GRP_N_EP = 2
DCR_GRP_DSKCHK_CNT = 60
[GRP_ASM]
DCR_EP_NAME = ASM0
DCR_EP_SHM_KEY = 93360
DCR_EP_SHM_SIZE = 20
DCR_EP_HOST = 192.168.150.144
DCR_EP_PORT = 9349
DCR_EP_ASM_LOAD_PATH = /dev/raw
[GRP_ASM]
DCR_EP_NAME = ASM1
DCR_EP_SHM_KEY = 93361
DCR_EP_SHM_SIZE = 20
DCR_EP_HOST = 192.168.150.158
DCR_EP_PORT = 9351
DCR_EP_ASM_LOAD_PATH = /dev/raw
[GRP]
DCR_GRP_TYPE = DB
DCR_GRP_NAME = GRP_DSC
DCR_GRP_N_EP = 2
DCR_GRP_DSKCHK_CNT = 60
[GRP_DSC]
DCR_EP_NAME = DSC0
DCR_EP_SEQNO = 0
DCR_EP_PORT = 5236
DCR_CHECK_PORT = 9741
[GRP_DSC]
DCR_EP_NAME = DSC1
DCR_EP_SEQNO = 1
DCR_EP_PORT = 5237
DCR_CHECK_PORT = 9742

在1号机bin目录下使用DMASMCMD工具初始化

./dmasmcmd
create dcrdisk '/dev/raw/raw1' 'dcr'
create votedisk '/dev/raw/raw2' 'vote'
create asmdisk '/dev/raw/raw3' 'LOG0'
create asmdisk '/dev/raw/raw4' 'DATA0'
init dcrdisk '/dev/raw/raw1' from '/home/dmdba/dmdbms/data/dsc/dmdcr_cfg.ini' identified by 'abcd'
init votedisk '/dev/raw/raw2' from '/home/dmdba/dmdbms/data/dsc/dmdcr_cfg.ini'

之后两台虚拟机在dsc目录下新建dmasvrmal.ini配置文件

[MAL_INST1]
MAL_INST_NAME = ASM0
MAL_HOST = 192.168.150.144
MAL_PORT = 7236
[MAL_INST2]
MAL_INST_NAME = ASM1
MAL_HOST = 192.168.150.158
MAL_PORT = 7236

在1号机dsc目录下新建dmdcr.ini配置文件

DMDCR_PATH = /dev/raw/raw1 
DMDCR_MAL_PATH = /home/dmdba/dmdbms/data/dsc/dmasvrmal.ini //dmasmsvr 使用的 MAL 配置文件路径
DMDCR_SEQNO = 0
//ASM 重启参数,命令行方式启动
DMDCR_ASM_RESTART_INTERVAL = 0
DMDCR_ASM_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmasmsvr dcr_ini=/home/dmdba/dmdbms/data/dsc/dmdcr.ini
//DB重启参数,命令行方式启动
DMDCR_DB_RESTART_INTERVAL = 0
DMDCR_DB_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmasmsvr path=/home/dmdba/dmdbms/data/dsc0_config/dm.ini dcr_ini=/home/dmdba/dmdbms/data/dsc/dmdcr.ini

在2号机dsc目录下新建dmdcr.ini配置文件

DMDCR_PATH = /dev/raw/raw1 
DMDCR_MAL_PATH = /home/dmdba/dmdbms/data/dsc/dmasvrmal.ini //dmasmsvr 使用的 MAL 配置文件路径
DMDCR_SEQNO = 1
//ASM 重启参数,命令行方式启动
DMDCR_ASM_RESTART_INTERVAL = 0
DMDCR_ASM_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmasmsvr dcr_ini=/home/dmdba/dmdbms/data/dsc/dmdcr.ini
//DB重启参数,命令行方式启动
DMDCR_DB_RESTART_INTERVAL = 0
DMDCR_DB_STARTUP_CMD = /home/dmdba/dmdbms/bin/dmasmsvr path=/home/dmdba/dmdbms/data/dsc1_config/dm.ini dcr_ini=/home/dmdba/dmdbms/data/dsc/dmdcr.ini

现在就可以直接启动dmcss、dmasmsvr。但是此处如果直接启动一定会报错。因为1号机的划分盘配置还没有同步到2号机来,故此处需要先关机再开机。
开机之后,需要关闭防火墙,否则是无法正常启动的。

重启后:
在bin目录下:先后在1,2号机执行:

./dmcss DCR_INI=/home/dmdba/dmdbms/data/dsc/dmdcr.ini

之后复制SSH渠道

./dmasmsvr DCR_INI=/home/dmdba/dmdbms/data/dsc/dmdcr.ini

执行完毕后如果一号机dmcss下打印如下信息,则说明正常。

cdh集群yarn任务界面 cds集群_CSS


在1号虚拟机启动dmasmtool创建共享磁盘

./dmasmtool DCR_INI=/home/dmdba/dmdbms/data/dsc/dmdcr.ini
create diskgroup 'DMLOG' asmdisk '/dev/raw/raw3'  #创建磁盘日志组
create diskgroup 'DMDATA' asmdisk '/dev/raw/raw4' #创建数据磁盘组

1号机在/home/dmdba/dmdbms/data/dsc目录下新建一个dminit.ini文件:

db_name = dsc
system_path = +DMDATA/data
system = +DMDATA/data/dsc/system.dbf
system_size = 128
roll = +DMDATA/data/dsc/roll.dbf
roll_size = 128
main = +DMDATA/data/dsc/main.dbf
main_size = 128
ctl_path = +DMDATA/data/dsc/dm.ctl
ctl_size = 8
log_size = 256
dcr_path = /dev/raw/raw1 //dcr 磁盘路径,目前不支持 asm,只能是裸设备
dcr_seqno = 0
auto_overwrite = 1
[DSC0]
//inst_name 跟 dmdcr_cfg.ini 中 DB 类型 group 中 DCR_EP_NAME 对应
config_path = /home/dmdba/dmdbms/data/dsc0_config
port_num = 5236
mal_host = 192.168.150.144
mal_port = 9340
log_path = +DMLOG/log/dsc0_log01.log
log_path = +DMLOG/log/dsc0_log02.log
[DSC1]
//inst_name 跟 dmdcr_cfg.ini 中 DB 类型 group 中 DCR_EP_NAME 对应
config_path = /home/dmdba/dmdbms/data/dsc1_config
port_num = 5237
mal_host = 192.168.150.158
mal_port = 9341
log_path = +DMLOG/log/dsc1_log01.log
log_path = +DMLOG/log/dsc1_log02.log

进入bin目录执行以下命令:

./dminit control=/home/dmdba/dmdbms/data/dsc/dminit.ini

之后在/home/dmdba/dmdbms/data/目录下会得到dsc0_config和dsc1_config两个文件夹,使用XShell工具将dsc1_config文件夹传到2号机。
此处需要重启,先关机再开机

启动DCS集群

分别在两台机器的bin目录下启动dmserver即可完成dsc搭建

./dmserver /home/dmdba/dmdbms/data/dsc0_config/dm.ini dcr_ini=/home/dmdba/dmdbms/data/dsc/dmdcr.ini 
./dmserver /home/dmdba/dmdbms/data/dsc1_config/dm.ini dcr_ini=/home/dmdba/dmdbms/data/dsc/dmdcr.ini

得到如下结果就说明基本搭建完成。

cdh集群yarn任务界面 cds集群_数据库_02

监视器配置

最好是在第三台机器创建监视器,在此处直接在2号机的/home/dmdba/dmdbms/data/目录下创建监视器文件dmcssm.ini

CSSM_OGUID = 63635
#配置所有 CSS 的连接信息,
#和 dmdcr_cfg.ini 中 CSS 配置项的 DCR_EP_HOST 和 DCR_EP_PORT 保持一致
CSSM_CSS_IP = 192.168.150.144:9341
CSSM_CSS_IP = 192.168.150.158:9343
CSSM_LOG_PATH =…/log #监视器日志文件存放路径
CSSM_LOG_FILE_SIZE = 32 #每个日志文件最大 32M
CSSM_LOG_SPACE_LIMIT = 0 #不限定日志文件总占用空间

进入bin目录:
./dmcssm INI_PATH=/home/dmdba/dmdbms/data/dmcssm.ini

之后可以show观察看到inst_status为OPEN状态即为成功打开。

cdh集群yarn任务界面 cds集群_数据库_03

可以使用DM管理工具验证搭建环境,在1号机上面创建表,在2号机能成功查询到该表,即说明搭建成功。