一.安装jdk及配置环境变量:
下载地址:
https://www.oracle.com/java/technologies/downloads/#java8-windows 安装步骤:
本地安装spark开发环境 windows安装spark环境_hadoop
下载后点击安装,中途可以自定义安装路径,最后查看安装路径:
本地安装spark开发环境 windows安装spark环境_spark_02
开始配置系统环境变量:
本地安装spark开发环境 windows安装spark环境_hadoop_03
在系统变量中新建:
变量名: JAVA_HOME
变量值:D:\jdk 也就是jdk的安装路径
确认后,打开cmd,输入java version,出现如下界面:
本地安装spark开发环境 windows安装spark环境_hadoop_04
说明java系统环境变量已配好。

二.安装spark及配置环境变量:
下载地址:
https://archive.apache.org/dist/spark/ 点击想安装的版本(我安装的是spark-3.0.0):
本地安装spark开发环境 windows安装spark环境_windows_05
将压缩包放在喜欢的位置进行解压:
本地安装spark开发环境 windows安装spark环境_windows_06

开始配置spark的系统环境变量:

本地安装spark开发环境 windows安装spark环境_大数据_07


在系统变量中新建:

变量名:SPARK_HOME

变量值:D:\spark-3.0.0-bin-hadoop2.7三.安装hadoop及配置环境变量:

下载地址:

https://archive.apache.org/dist/hadoop/common/ 选择与spark对应的版本:

本地安装spark开发环境 windows安装spark环境_spark_08


点击之后进行下载:

本地安装spark开发环境 windows安装spark环境_spark_09


解压到喜欢的位置:

本地安装spark开发环境 windows安装spark环境_windows_10


此时bin目录(D:\hadoop-2.7.1\bin)下可能没有hadoop.dll及winutils.exe文件,

需要进行下载:

hadoop.dll:

https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/hadoop.dll本地安装spark开发环境 windows安装spark环境_大数据_11

点击下载

winutils.exe:
https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe 下载方式同上

将hadoop.dll和winutils.exe均拷贝到D:\hadoop-2.7.1\bin下和C:\Windows\System32下(两个文件各拷贝一份)

本地安装spark开发环境 windows安装spark环境_本地安装spark开发环境_12

开始配置hadoop的系统环境变量:

本地安装spark开发环境 windows安装spark环境_本地安装spark开发环境_13


新建系统变量:

变量名:HADOOP_HOME

变量值:D:\hadoop-2.7.1

在cmd输入hadoop version,出现如下界面:

本地安装spark开发环境 windows安装spark环境_hadoop_14


说明hadoop环境变量配置成功;

接着输入spark-shell,出现如下界面:

本地安装spark开发环境 windows安装spark环境_spark_15


说明spark系统环境变量配置成功;

接下来安装py4j,在cmd中输入pip install py4j

安装成功后接着输入pip install pyspark,安装好后出现如下界面:

本地安装spark开发环境 windows安装spark环境_spark_16


最后输入pyspark,出现如下界面:

本地安装spark开发环境 windows安装spark环境_大数据_17


再来pycharm看引用的pyspark代码,已经可以正常使用了:

本地安装spark开发环境 windows安装spark环境_本地安装spark开发环境_18


至此,windows(win7)安装pyspark(3.0.0及以上版本)成功