前言:此教程适用于全部我家云,首先要先弄明白我家云掉盘的原因:主要是因为一些大神编译的第三方系统没有集成我家云的硬件驱动,无法控制硬盘休眠,然后硬盘没事干就想休息,再唤醒就容易造成找不到硬盘的问题,很多人为了解决都是硬改,我看了很多大神弄得防止掉盘的补丁,我试了n次,还是不行,还有个大神弄了个菩萨保佑防掉盘,我刚开始看着感觉这菩萨做的不错,结果打开脚本一看,里面没有任何真正有用的东西,只有一个实现自慰功能的菩萨,原来是逗我们玩呢!可惜我不信佛,我家云会信么,于是我就潜心研究,精心修炼,最后终于功夫不负有心人,终于没有再掉过,实现方法也很简单,就是通过软件的方式,不让硬盘休眠。
  实现方法:我是在硬盘里部署了“Hadoop集群”,集群一开,就会有日志之类的数据不停地往硬盘中写,数据很少的,不会说一会硬盘就满了,该格式化了,或者你也可以写个Java脚本或者shell脚本啥的,只要能实现同样的读写硬盘就行了,因为本人是学大数据的,所以经常需要用到“Hadoop”,用这种方法既能方便自己学习,又能不掉盘,一箭双雕,是何等的快乐。
Hadoop搭建不适合小白,我只是给会点计算机,玩过Linux的提个醒,下面不废话了,上步骤,准备arm平台的Java压缩包,hadoop依靠Java,hadoop不区分arm和x86。
  本人环境说明,我用的是wdmomo大神做的以“可道云”为主界面的Windows7风格的镜像。作者提示把盘挂载到/mnt/disk目录下,我在该目录下创建了data/soft目录,Java和Hadoop的压缩包放在了soft目录下,我这里按照我的环境来教学,你看明白了想咋搞咋搞,看不太明白就按照我的来整,内容哪点有错误可以评论区提醒我改正。
  所用到的资源会在评论区
  
  先说一些常用的Linux命令
查看linux系统ip信息:ifconfig
ls:查看当前目录下面的内容
mkdir : 创建目录
cd : 切换到某个目录下面
pwd:获取当前目录的全路径

然后就是步骤:
  一、先把Java和Hadoop包放在该放的地方,winSCP软件连接我家云都可以搞进去
进入tar包(压缩包)目录。
安装jdk
1:解压:

tar -zxvf jdk-8u231-linux-arm64-vfp-hflt.tar.gz 

(文件名不用全部打完,按tab键会自动补全)
2:添加环境变量

vi /etc/profile

首先 按i 进入insert编辑模式
然后添加下面内容

export JAVA_HOME=/mnt/disk/data/soft/jdk1.8.0_231
export PATH=$PATH:$JAVA_HOME/bin

再按esc 退出编辑模式
再按shift 和 :
再输入wq
最后按回车即可
3:执行 source /etc/profile 让环境变量立刻生效
4:验证 java -version会看到Java的版本信息,说明环境变量配成功了

二、修改hosts文件

vi /etc/hosts

你的我家云ip 你的主机名
(千万别把我的汉字打上去,那要是能成功我把我家云吃了)

三、安装hadoop集群
1:解压

 tar -zxvf hadoop-2.7.5.tar.gz

2:修改配置文件
(1)修改core-site

vi /mnt/disk/data/soft/hadoop-2.7.5/etc/hadoop/core-site

在两个

<configuration>
</configuration>

中间加入以下内容,wdmomo是我的主机名,如果你不知道你的是啥就用hostname命令看一下,必须改的和自己的主机名一样,还有下面hadoop_repo的路径,跟我不一样的也要修改,这就是日志文件,放到自己想放得位置。

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://wdmomo:9000</value>
</property>
<property>
        <name>hadoop.tmp.dir</name>
        <value>/mnt/disk/data/hadoop_repo</value>
</property>

(2)修改hadoop-env.sh文件

vi /mnt/disk/data/soft/hadoop-2.7.5/etc/hadoop/hadoop-env.sh

找到这一行注释# The java implementation to use.在它下面粘贴下面两行。

export JAVA_HOME=/mnt/disk/data/soft/jdk1.8.0_231
export HADOOP_LOG_DIR=/mnt/disk/data/hadoop_repo/logs/hadoop

(3)修改hadoop-env.sh文件

vi /mnt/disk/data/soft/hadoop-2.7.5/etc/hadoop/hdfs-site

在后面修改成下面的样子,和第一个配置文件修改方法类似

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
</configuration>

(4)编辑mapred-site.xml
先输入:mv mapred-site.xml.template mapred-site.xml

vi /mnt/disk/data/soft/hadoop-2.7.5/etc/hadoop/mapred-site.xml

翻到最后面修改成下面

<configuration>
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
</configuration>

(5)修改yarn-env.sh

vi /mnt/disk/data/soft/hadoop-2.7.5/etc/hadoop/yarn-env.sh

在最后面添加

export JAVA_HOME=/mnt/disk/data/soft/jdk1.8.0_231
export YARN_LOG_DIR=/mnt/disk/data/hadoop_repo/logs/yarn

(6)修改yarn-site文件

vi /mnt/disk/data/soft/hadoop-2.7.5/etc/hadoop/yarn-site

在最后面修改(方法同配置文件1)

<configuration>
	<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
	</property>
</configuration>

四、对hdfs文件系统进行格式化
Hadoop的环境变量可自行配置,和Java方法一样,也可不配置,就是以后执行命令必须进hadoop目录,配置方法还是vi /etc/profile

export HADOOP_HOME=/mnt/disk/data/soft/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin

配了之后就可以在任何路径执行hadoop命令了

bin/hdfs namenode -format

注意:这个格式化操作不能重复执行,只需要在第一次安装hadoop的时候执行一次即可

五、启动集群

sbin/start-all.sh

然后会提示输入密码,好像要输入三四次吧!
jps验证节点是否启动。出现下面五个说明你成功了,其实就算缺一两个也没事。因为在这里的主要用途是不停读写硬盘。

8308 SecondaryNameNode
8550 NodeManager
8455 ResourceManager
8153 DataNode
8031 NameNode

或者通过浏览器
http://我家云ip:50070
http://我家云ip:8088
停止命令:sbin/stop-all.sh
以后就我家云已开机就一直挂着hadoop,绝对不会掉盘,我已经测试半月了。