准备工作:
yum install lrzsz
安装完毕即可使用上传和下载。若是安装失败可以 下载lrzsz-0.12.20-27.1.el6.x86_64.rpm
安装命令rpm -ivh lrzsz-0.12.20-27.1.el6.x86_64.rpm 用来你上传命令rz和下载命令 sz 加上文件名
linux 删除一个文件 命令 rm -f
删除文件夹实例:
rm -rf /var/log/httpd/access
ctrl+ l 清除屏幕
将目录A重命名为B
mv A B
例子:将/a目录移动到/b下,并重命名为c
mv /a /b/c
,比如说我们要将一个名为abc的文件重命名为1234就可以这样来写:mv abc 1234,但是要注意的是,如果当前目录下也有个1234的文件的话,我们的这个文件是会将它覆盖的
?6?7hostname -i本机ip地址
三台虚拟机
cd /home/test/zookeeper/zookeeper-3.4.6/conf
第一步:配置java环境
jdk 文件夹下
方法一vim /etc/profile
方法二推荐:vim ~/.bashrc 注意 ~代表当前用户(Linux 是一个多用户操作系统) 证实不一定起作用
JAVA_HOME= /home/test/jdk
export PATH=$JAVA_HOME/bin:$PATH
ll $JAVA_HOME/bin 按下Tab键 回车
第二步:创建文件夹,解压压缩包
cd /home/test/
test文件夹下建立两个文件夹
mkdir jdk
mkdir zookeeper
zookeeper 文件夹下建立两个文件夹
mkdir zkdata
mkdir zkdatalog
tar -zxvf jdk-8u151-linux-x64.tar.gz
tar -zxvf zookeeper-3.4.6.tar.gz
zoo.cfg文件和新增并修改
myid文件:
进入cd /home/test/zookeeper/zookeeper-3.4.6/conf
ll
cp zoo_sample.cfg zoo.cfg
ll
vim zoo.cfg
dataDir修改为 快照日志的存储路径dataDir=/home/test/zookeeper/zkdata
新增一行 事务日志的存储路径dataLogDir=/home/test/zookeeper/zkdatalog
若不写dataLogDir 那么 快照日志和事务日志都将在dataDir目录下
server.1=192.168.25.133:12888:13888
server.2=192.168.25.128:12888:13888
server.3=192.168.25.122:12888:13888
第一个端口 leader follower端口;master和silver默认2888 第二个端口 leader选举的端口 默认3888
cd /home/test/zookeeper/zkdata
echo "1" > myid 第二台服务器就是echo "2" > myid 第三台服务器就是echo "3" > myid
ll
cat myid
其他两台一样
第四步:开启服务:
第一台机器显示follower
cd /home/test/zookeeper/zookeeper-3.4.6/bin
./zkServer.sh start
./zkServer.sh status
第二台机器同样的操作 显示leader
第三台机器同样的操作显示follower
jps命令显示 zookeeper的进程
8802 QuorumPeerMain
8909 Jps
如何使用命令行强制删除zookeeper路径下的所有数据 zookeeper删除目录命令
转载本文章为转载内容,我们尊重原作者对文章享有的著作权。如有内容错误或侵权问题,欢迎原作者联系我们进行内容更正或删除文章。
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
关闭zookeeper的命令 zookeeper命令行操作
本文主要讲述Zookeeper的命令行操作,关注专栏《破茧成蝶——大数据篇》查看相关系列文章~目录一、命令行操作的基本语法二、操作示例 一、命令行操作的基本语法 首先,使用zkCli.sh进入Zookeeper的命令行操作界面。 下
关闭zookeeper的命令 zookeeper 子节点 命令行操作 数据 -
spark分批写入mysql数据量大
文章目录RDD持久化向HDFS写数据向MySql写数据RDD缓存缓存的存储级别StorageLevelcache()和persist()的区别是什么?缓存什么时候失效?RDD.cache后是否真正缓存? RDD持久化向HDFS写数据向HDFS写数据时,当前RDD的分区即为HDFS上的文件数。 为避免生成多个小文件,可以先重分区。rdd.repartition(4).saveAsTextFile(
spark分批写入mysql数据量大 cache presist unpersist foreachPartition