先说5个路经的作用:
1)/omni_shared/script/JP ->里面是job code, 例如GRW01A,这里面的内容有需要调用哪个datalist,主机名,load+mode, load有low,medium,high,备份mode有full还是incremtal,如下图:
JDC相对应的是:prod/dss/run/bin
2)/omni_shared/etc_opt_omni_server/datalist ->这里面就是datalist,里面描述了备份哪个raw disk device,用哪个driver,以及是physical 带库还是vtl带库。 ./cs |grep [datalist]
JDC对应的是:etc/opt/omni/server/datalist
3) /opt/omni/lbin/SHELL/conf ->这里面是data list的信息,cat的话里面是DG信息,如下图:
JDC对应的是:/opt/omni/lbin/SHELL/conf 与GDC/DRC一样
4)/omni_shared/script/conf -> 这里面也是datalist信息,cat的话里面是load+mode信息,如下图:
5)/usr/local/admin/bc/jp ->这下面是server的名字,确定server的名字可以去上面3)路径下查DG,看DG前缀就是server name,然后cd进【server name】,下面是syn和split的job code,这些job syn/split上面3)路径下的所有DG
Decomm的话,dummy1 的job code. 2 3 4 删除, dummy 5里面关于DG的内容。
****************************************************************************************
full decommisson 的操作集中在三个平台,
1 backup server
2 VMAX GUI
3 FC switch
先说一下总体的思路:
volume首先bound进一个pool -> map进一个SG -> mount给主机。
volume的SG,主机的HBA卡光纤口IG,存储的FA端口PG组成 masking view.
switch -> edge switch -> core switch -> storage ,edge交换机上的zoneset上的成员是IG的PPWN与PG的WWPN(当然也可以按port来配)。
STD挂给production server, BCV挂给backup server,
1)首先需要在bankup server上中止std 与 bcv的clone关系;
symdg list |grep "server name" 如果dg name显示不完整,用下面两条来查;
/home/work/./cs 50 |grep "server name"
omnidb -sess [session ID] -report
symdg show [dg name] (注意是dg name 不是device name, 要删掉device name 后面的_*)
symclone -g [dg name] terminate que (check if it is copied)
symclone -g [dg name] terminate (if p and s are copied)
2)在vmx GUI上删除masking view;
3) 在vmx GUI上删除MV下的IG, PG;
4)在vmx GUI上删除fast policy, 如果分配了;
fast policy是一个algorithm,能够monitor与server之间的I/O, lun来自于pool,pool是由不同的disk构成的,sata is less, fc 中等。fast policy能够分配哪块disk被用。
5)在vmx GUI上removeSG下的volume; (unmap, 切断vlume 与 FA port的关联,但是数据还在,利用率不变,volume仍然与pool bound着。)
volume从SG中被remove并不是unmap,只是把disk从sg拿走了,不属于这个sg了,while we add a STD or BCV device to a SG, and add SG to masking view that device will be mapped to front and back end ports,unmap是解除与port的联系,unmap后其实还是和pool bound着的,而且里面的数据可还都存在,使用率没有变化,可以用下面的命令来查:
symdev -sid 0055 show 0B4A
上面的命令可以查看0B4A的信息,与哪块盘bound着。
6)在vmx GUI上remove SG;
7)在vmx GUI上unbind volume from pool; (volume的数据会被擦除,利用率会降到0%)
unmap之后数据还在,unbind后是使用率就清零了,数据都被擦除。
8)在vmx GUI上把volume重新bind回原来的pool。
以上是std盘,对于bcv盘,除了一步以外,所有步骤都是一样的:
bcv盘的SG是一个大的SG,不要删除。
查看BCV盘所属的pool,用以下命令:
symsg -sid 0055 list |grep -i GEPBKP*
symsg -sid 0055 show [dg name ] |grep -i 0B4A
BCV devices 属于backup storage, backup storage一共三个,第二个命令是确定究竟哪一个。
9)在backupserver上删除STD/BCV device, STD dg;
symclone -g [dg name] remove [0b4A]
symbcv -g [dg name] remove ld [0c5c]
symdg -delete [dg name] -force
10)完成上一步之后,重新ioscan的话会与新的NO-HW的path出现,删除这些path;
ioscan -fnNkC disk |grep -i NO_HW
rmsf -H []
11)在backupserver上 insf -e重建device表;
insf -e
12)删除/var/adm/dev/下的server 文件夹,删除设备软链接;
13)在backupserver01 02上面删除datalist和conf下的备份脚本;
14)在backupserver07上dummy JP文件夹下的sync/splitjob code的dg内容;
15)在backupserver01上dummy 备份的job code;
16)在fabric manager上删除server所属的zoneset,zone,alias(按这个顺序);
在FM上先选core 或 edge sw
一个fabric里面有几个zoneset,zoneset的成员叫做member,就是一个zone,一个zone的成员是两个alias,是server上的wwpn和存储FA面板的port wwpn,zone和zoneset都是加入的vsan,vsan的成员是port,可以通过show interface看到,edge的port连接的server的wwpn,core的port连接的是存储的portwwpn,zone规定了server与storage之间的IO流向,不同vsan之间不能通信,一个port可以加入多个zone,一个zone只能加入一个vsan。
17)active change;
18)在edge switch 的 device manager上down 掉server port,把port所属的zone替换成vsan1;
server -> edge switch -> core switch -> storage
storage的FA port还被其他server用,不能删。
server上的两个HBA,HBA0和HBA1,一个连edgeSW1,一个连edgeSW2,在SW1上能看到HBA0的zone,SW2上看到HBA1的,coreswitch的alias是存储的wwpn,zone的成员分别是HBA的WWPN和storage的WWPN.
19)save configure
20)finish.