Hadoop和Spark集群中某台工作机崩溃后如何重启?


工作机是hadoop集群的datanode,Spark集群的worker。


只需要在机器重启后,

一、连接hadoop集群

bin/hadoop-daemon.sh start datanode     //启动数据节点
bin/hadoop-daemon.sh start tasktracker  //启动任务管理器
此时再在master上使用 ./hadoop dfsadmin -report   是就会发现这些节点已经启动起来 。


二、连接spark集群

start-slave.sh  spark://master:7077

ok了!