目录

1.安装Python3.7版本

2.安装Spark与JDK

3.启动SPARK


1.安装Python3.7版本

gcc --version 查看,没安装的先安装gcc,yum -y install gcch

2.安装其它依赖包,此步为必要性操作。

yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel libffi-devel

或者使用yum -y groupinstall "Development tools 命令把所有开发环境的依赖包安装好

3.下载python3.7.x源码,根据需求下载,到官网https://www.python.org/downloads/source/上进行下载,下载taz格式的压缩包文件,然后对压缩包上传至linux服务器

也可以使用wget https://www.python.org/ftp/python/3.7.3/Python-3.7.3.tgz 直接进行安装,注意看自己所处的目录,如果想安装到其他目录也可以

例如,我的下载地址为 /opt/software/

wget https://www.python.org/ftp/python/3.7.3/Python-3.7.3.tgz /opt/software/

如若此处下载过慢,可以使用国内镜像源

ll一下

centos7 gpt 安装 centos7安装gtk3_centos7 gpt 安装

发现我们的python压缩包已经下载好了

 

tar -zxvf Pyhon-3.7.3.tgz -C /opt/moudule

mkdir /usr/local/python3 
6.执行配置文件,编译,编译安装  cd Python-3.7.3 ./configure --prefix=/usr/local/python3 make && make install

7.建立软连接(因为Centos7已经自带python2版本,所以我们要下载python3并建立软连接并进行区别)

ln -s /usr/local/python3/bin/python3.7 /usr/bin/python3 ln -s /usr/local/python3/bin/pip3.7 /usr/bin/pip3

8.测试一下python3是否已经安装好并可用

centos7 gpt 安装 centos7安装gtk3_centos7 gpt 安装_02

centos7 gpt 安装 centos7安装gtk3_hadoop_03

 

此时出现版本信息,OK安装完成

 

2.安装Spark与JDK

 1.下载Spark与JDK安装包并解压,方法同上,这里我不再赘述

centos7 gpt 安装 centos7安装gtk3_python_04

 这里我使用的是jdk1.8.0与spark3.2

2.配置JDK环境变量,这里我的安装目录为/opt/module

新建/etc/profile.d/my_env.sh文件(注:my_env.sh,关键是.sh后缀,名称任取)

vim /etc/profile.d/my_env.sh

添加如下内容

#JAVA_HOME export JAVA_HOME=/opt/module/jdk1.8.0_212 export PATH=$PATH:$JAVA_HOME/bin

保存并退出,然后我们  source /etc/profile  一下,让新的环境变量PATH生效

最后我们 java -version一下看看是否环境配置成功

centos7 gpt 安装 centos7安装gtk3_hadoop_05

入股

如果此时未出现java版本信息可以reboot一下

2.配置SPARK环境变量,这里我的安装目录为/opt/module

首先,我们进入spark安装目录下的conf子目录

centos7 gpt 安装 centos7安装gtk3_centos7 gpt 安装_06

 

 修改配置文件spark-env.sh,注意,这个文件默认不存在,这里有spark-env.sh.template,复制一份并命名新文件为spark-env.sh

cp spark-vev.sh.template spark-env.sh

 

centos7 gpt 安装 centos7安装gtk3_hadoop_07

 查看之前的JAVA_HOME路径,在下一步中使用

修改文件spark-env.sh,在文件末尾添加如下内容:

centos7 gpt 安装 centos7安装gtk3_python_08

#export SCALA_HOME=/opt/scala-2.13.0export JAVA_HOME=/opt/moudle/jdk1.8.0_115 #这里是你jdk的安装路径 export SPARK_HOME=/opt/moudle/spark-2.3.1 #这里是你spark的安装路径 export SPARK_MASTER_IP=XXX.XX.XX.XXX #将这里的xxx改为自己的Linux的ip地址 #export SPARK_EXECUTOR_MEMORY=512M #export SPARK_WORKER_MEMORY=1G #export master=spark://XXX.XX.XX.XXX:7070

 新建workers配置文件(子节点配置文件):

cd  /opt/module/spark-3.2.0-bin-hadoop2.7/conf

centos7 gpt 安装 centos7安装gtk3_linux_09

 

           copy一份slaves:cp  workers.template workers

          然后进入vim编辑模式:vim  workers,会提示文件已存在,输入“e”进入编辑模式即可。

         在文件的最后加上如下配置:localhost

centos7 gpt 安装 centos7安装gtk3_hadoop_10


 

如果已有则不需要添加 

3.启动SPARK

1.进入spark的sbin目录:cd  sbin/

2.启动spark集群(单机版): ./start-all.sh

然后等待,如果没有报错,然后我们jps一下

centos7 gpt 安装 centos7安装gtk3_python_11

 发送JPS与Mster 与Worker都成功启动,说明SPARK配置成功

接下来我们就可以用Windows的pycharm连接linux进行编程作业啦!