0、安装python,我用的是python2.7.13

1、安装jdk

一定要安装1.7以上的版本,安装低版本会报下面的错误

java.lang.NoclassDefFoundError

安装后不用手动设置环境变量,安装完成之后用“java -version”测试是否安装成功

安装成功之后要添加一个“JAVA_HOME”的环境变量,因为在hadoop的\libexec\hadoop-config.sh中定义了一个JAVA_HOME的环境变量,如果找不到该变量,后面运行“sc = SparkContext(appName="PythonPi")”时就会出现虚拟机初始化错误,不能分配内存

 

2、下载并安装spark

下载地址:http://spark.apache.org/downloads.html

注意spark与hadoop的版本是严格对应的,文件名中也有体现,如果要安装hadoop,一定要安装对应的版本

spark-1.6.3-bin-hadoop2.6.tgz就要安装2.6版本的hadoop。

下载之后,将其解压到某文件夹,例解压到“C:\spark\spark-1.6.3-bin-hadoop2.6”

添加环境变量

  1、将“C:\spark\spark-1.6.3-bin-hadoop2.6\bin”添加到系统变量Path中,这里面都是一些cmd文件

  2、新建一个系统变量SPARK_HOME,然后将路径C:\spark\spark-1.6.3-bin-hadoop2.6添加进去

  3、运行pyspark检查是否安装成功,虽有有错误,但可以把环境打开,安装下面的东西才能解决这些错误

 

3、下载并安装hadoop

下载地址:https://archive.apache.org/dist/hadoop/common/

根据上面这里要安装2.6版本的hadoop,然后将压缩包解压到指定文件夹,例如“C:\spark\hadoop-2.6.5”

添加环境变量

  1、将“C:\spark\hadoop-2.6.5\bin”添加到系统变量Path中,这里面都是一些cmd文件

  2、新建一个系统变量HADOOP_HOME,然后将路径C:\spark\hadoop-2.6.5添加进去

pyspark检查看错误是否消息

 

4、上面安装完成之后还是会有一个错误

主要是因为Hadoop的bin目录下没有winutils.exe文件的原因造成的。这里的解决办法是:
  
- 去 https://github.com/steveloughran/winutils 选择你安装的Hadoop版本号,然后进入到bin目录下,找到winutils.exe文件,下载方法是点击winutils.exe文件,进入之后在页面的右上方部分有一个Download按钮,点击下载即可。
- 下载好winutils.exe后,将这个文件放入到Hadoop的bin目录下

 

5、输入pyspark,运行正常

Spark开始启动,并且输出了一些日志信息,大多数都可以忽略,需要注意的是两句话:

Spark context available as sc.
SQL context available as sqlContext

只有看到这两个语句了,才说明Spark真正的成功启动了。

6、在编译环境使用时,还要把C:\spark\spark-1.6.3-bin-hadoop2.6\python中的pyspark文件夹拷贝到对应的\Lib\site-packages中

7、运行pip install py4j安装包

8、运行一个例子检测是否成功,这个例子在运行这个文件时,需要输入命令行参数



import sys
from random import random
from operator import add

from pyspark import SparkContext


if __name__ == "__main__":
    """
        Usage: pi [partitions]
    """
    sc = SparkContext(appName="PythonPi")
    partitions = int(sys.argv[1]) if len(sys.argv) > 1 else 2
    print("partitions is %f" % partitions)
    n = 100000 * partitions

    def f(_):
        x = random() * 2 - 1
        y = random() * 2 - 1
        return 1 if x ** 2 + y ** 2 < 1 else 0

    count = sc.parallelize(range(1, n + 1), partitions).map(f).reduce(add)
    print("Pi is roughly %f" % (4.0 * count / n))

    sc.stop()

  • 1
  • 2Spark contextSQL context分别是什么,后续再讲,现在只需要记住,只有看到这两个语句了,才说明Spark真正的成功