SUSE ha 搭建
原创
2014-04-22 22:29:48
10000+阅读
SUSE Linux HA(High Availability)是一个专门用于提高系统可用性的解决方案,通过实现故障转移和自动恢复功能,确保系统在发生故障时能够持续稳定运行。在SUSE Linux HA中,启动过程是非常关键的一环,它决定了系统在运行时的稳定性和可靠性。
在SUSE Linux HA中,启动过程主要包括以下几个步骤:
1. 启动引导加载程序(Boot Loader):启动引导加
原创
2024-03-25 11:32:14
96阅读
一、SUSE集群配置前的准备
在两台服务器中分别安装SUSE sp2系统及SUSE ha套件,并按照表1-1所示配置服务器。
Server1
Server2
推荐
原创
2013-05-06 10:41:26
9228阅读
点赞
1评论
SUSE Linux is a popular operating system known for its stability and security features. One of the key components of SUSE Linux is the High Availability Cluster Extensions (HA). This feature allows or
原创
2024-04-30 09:44:47
189阅读
四台机器 bei1 bei2 bei3 bei4NNDNZKZKFCJNRMNM(任务管理)bei1 YYYbei2 YYYYYYYbei3 YYYYbei4YYY1、升级组件以及关闭防火墙 yum -y update PS: 如果使用本地yum源可省略该项 新开
原创
2016-03-08 23:40:30
598阅读
正文 下载Spark版本,这版本又要求必须和jdk与hadoop版本对应。 tar -zxvf 解压到指定目录,进入conf进行培训。spark-env.sh.template 改为 spark-env.sh,注册 export SPARK_DAEMON_JAVA_OPTS="-Dspark.dep
原创
2021-05-30 23:40:43
824阅读
将NN分别部署在hadoop203和hadoop204两台主机上,且保证两台主机配置完全一致包括ssh
原创
2023-06-15 14:10:33
54阅读
01PART前言Canal是用java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,Canal主要支持了MySQL的Binlog解析,解析完成后才利用Canal Client 用来处理获得的相关数据。02PART工作原理复制过程分成三步:1)Master主库将改变记录写到二进制日志(binary log)中;2)Slave从库向Mysql Master发送dump协议
原创
2021-03-14 10:33:26
415阅读
# 新建的虚拟机,可以更改为与文档中相同的主机名 hostnamectl set-hostname master hostnamectl set-hostname slave1 hostnamectl set-hostname slave2 .ssh免密登录 1),生成秘钥(群发) ssh-keyg ...
转载
2021-10-21 18:43:00
156阅读
2评论
好了,废话就到此吧。一、平台环境和需要安装的软件我安装的CentOS是完全安装的,安装过程需要下载一些软件,所以确保网络的联通性。如果已经下载好了安装包,网络就不是必须的了我用到的所有软件包我也已经分享了,详见第三部分 *<^_^>*1. 平台:CentOS Linux release 7.0.1406 X86_64
2. 所需软件:jdk
3. protocbuf
4. cma
转载
2023-09-14 08:27:19
76阅读
1、SUSE下采用LVM管理硬盘的方式,创建一个10G大小的硬盘 lvcreate -n monowall -L 10G xen_suse2、安装配置文件 cat monowall-pxe.cfg,COPY到安装的机器,执行xm create monowall-pxe.cfgname = "monowall"builder = "hvm"
原创
2014-08-14 18:59:47
989阅读
Gitlab私服搭建Ps:由于是内网使用不存在邮件派发,不配置邮件,且无需异步服务器代理转发直接过程:1、下载bitnami-gitlab-8.9.6-0-linux-x64-installer.run(版本自选)2、安装:YDCK-WXCAPP1:/soft#./bitnami-gitlab-8.9.6-0-linux-x64-installer.runTheinstallerdetectsth
原创
2018-08-08 17:53:45
7261阅读
1评论
FTP(File Transfer Protocol),是TCP/IP网络上两台计算机传送文件的协议,是在TCP/IP网络和Internet上最早使用的协议之一,属于网络协议组的应 用层。FTP客户机可以给服务器发出命令来下载文件、上传文件、创建或者改变服务器上的目录。
在安装FTP服务之前,请先关闭防火墙;由于FTP端口一直开启,整个系统有安全风险。所以建议在传输文件等操作完成后关闭FTP服务。也可以选择具有加密功能的SSH(Secure Shell)服务
原创
2013-06-07 18:31:58
1731阅读
点赞
1.配置资源前准备:安装好数据库并保持两台机器用户ID及组ID一致,组ID和用户ID在/etc/passwd查看,如不保持一致,可能导致切机时阵列的属主改变,导致数据库无法启动。建议用法,现在两台机器上建好kingbase组,然后通过 groupmod kingbase –g xxx(ID值)然后建立用户是将kingbase用户直接绑定到kingbase组上 useradd –m –d
原创
2015-09-07 14:17:42
2881阅读
点赞
一 、 Hadoop 集群架构设计 二 、 搭建集群 修改IP地址与hostname以及部署zookeeper、hadoop见上一篇博文《Hadoop 完全分布式搭建》。 三 、修改配置文件 修改nna上的core-site.xml <configuration> <!-- 指定hdfs的names
转载
2021-01-18 21:01:00
128阅读
2评论
MapReduceHadoop核心组件MR-MapReduce企业80以上使用MapReduce,未来可能替代Mapreduce的是spark,spark是2013年出现,时间短,技术储备不够是最大的原因。 MapReduce设计理念移动计算,而不是移动数据何为分布式计算Hdfs的数据全部是分布式存放,而MapReduce使用的就是Hdfs上存放的数据。 计算框架MR步骤1:s
文章目录集群规划zookeeperhdfs启动HDFS-HA集群集群规划note01note02note03NameNodeNameNodeJournalNodeJournalNodeJournal
原创
2022-02-16 09:56:25
247阅读
HA高可用搭建系统环境:[root@ha1 ha.d]# uname -aLinux ha1 2.6.18-238.el5 #1 SMP Thu Jan 1315:51:15 EST 2011 x86_64 x86_64 x86_64 GNU/Linuxha1:192.168.0.2ha2:192.168.0.3heartbeat 虚ip:192.168.0.4所用到的安装包:wgetftp://
原创
2013-06-08 17:30:03
672阅读
进入到执行:/soft/hadoop-2.7.1/etc/hadoop_cluster$ gedit hdfs-site.xml[配置部分][hdfs-site.xml]1.配置名称服务:dfs.nameservices名称服务的逻辑名。<property> <name>dfs.nameservices</name>
原创
2016-07-09 08:09:22
814阅读
MRAppMaster中如果ResourceManager 宕机了怎么办,与hadoop中的namenode问题一样,同样
原创
2023-05-24 10:08:45
65阅读