文章目录
Ubuntu下的Spark 伪分布式安装
一、安装Scala
- 解压安装包至指定目录:
tar -zxvf scala-2.10.4.tgz -C /home/
- 重新命名解压的文件:
mv scala-2.10.4/ scala
- 配置环境变量:
vi /etc/profile
- 使环境变量立刻生效:
source /etc/profile
- 测试是否安装成功:
scala
返回顶部
二、安装Spark
- 解压安装包至指定目录:
tar -zxvf spark-2.2.0-bin-hadoop2.7.tgz -C /home/
- 重命名解压的问价:
mv spark-2.2.0-bin-hadoop2.7/ hadoop
- 配置环境变量:
vi /etc/profile
- 使环境变量立刻生效:
source /etc/profile
- 测试是否安装成功:
spark-shell
返回顶部
三、配置Spark文件
- 将spark-env.sh.template文件重命名为spark-env.sh:
mv spark-env.sh.template spark-env.sh
- 打开spark-env.sh文件并且添加如下内容:
vi spark-env.sh
返回顶部
四、测试
测试之前先启动hadoop:/home/hadoop/sbin/start-all.sh
启动spark:/home/spark/sbin/start-all.sh
,包含master进程和worker进程
再登陆 http://192.168.64.100:8080/
测试:
状态为Active,成功!
参考大佬博客!凸(`0´)凸 基友高
返回顶部