cd到conf中去
修改名字 mv spark-env.sh.template spark-env.sh
并且修改内容
添加:
export JAVA_HOME=/root/java/jdk1.8.0_144
export SPARK_MASTER_IP=acm01
export SPARK_MASTER_PORT=7077
修改名字:
cd到conf中去
修改名字 mv spark-env.sh.template spark-env.sh
并且修改内容
添加:
export JAVA_HOME=/root/java/jdk1.8.0_144
export SPARK_MASTER_IP=acm01
export SPARK_MASTER_PORT=7077
修改名字:
实际生产环境一般不会用本地模式搭建Spark。生产环境一般都是集群模式。下面就给出了安装集群模式的步骤。
1.机器准备 准备三台Linux服务器,安装好JDK1.8。 2.下载Spark安装包 上传解压安装包:spark-2.1.1-bin-hadoop2.7.tgz 安装包到Linux上 解压安装包到指定位置:tar -zxvf /opt/software/spark-2.1.1-b
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M