文章目录

  • 并行度
  • 如何设置并行度
  • 如何规划我们自己群集环境的并行度?
  • Spark的任务调度


并行度

  • Spark之间的并行就是在同一时间内,有多少个Task在同时运行。并行度也就是并行能力的设置,假设并行度设置为6,就是6个task在并行跑,有个6个task的前提下,RDD的分区就被规划为6个分区。

如何设置并行度

  • 规划并行度优先级:代码→客户端提交参数→配置文件→默认设置(默认为1,具体会根据文件的分片数来跑)。
  • 配置文件中设置
# conf/spark-defaults.conf中设置
spark.default.parallelism 100
# 客户端提交参数
spark-submit --conf "spark.default.parallelism=100"
# 在代码中设置
conf = SparkConf()
conf.set("spark.default.parallelism", "100")
  • Tips:全局并行度是推荐设置,不要针对RDD改分区,可能会影响内存迭代管道的构建或者会产生额外的Shuffle。reparation、coalesce、reparationBy等算子避免使用。

如何规划我们自己群集环境的并行度?

  • 一般来说我们设置为群集CPU核心的2-10倍(确保最小为2倍,最大一般来说为10倍适度超出也没什么问题)。
  • 为什么最少要设置成2倍呢?
  • CPU的一个核心同一时间只能干一件事,所以在100个核心的前提下,设置100个并行,就能保证cpu资源100%的利用,但是如果task压力不均衡,某个task先执行完了,就会导致某个CPU核心空闲。如果设置了800个并行,100个在运行,700个在等待,而某个task运行完之后,后续的task继续运行,不会造成CPU空闲,从而最大程度的利用群集的资源。

Spark的任务调度

  • Driver也就是我们通常理解的包工头。它的主要工作就是:
  • 1 逻辑DAG的构建
  • 2 分区DAG的构建
  • 3 Task划分
  • 4 将Task分配给Executor(民工)并监控其工作
  • Spark调度流程图:
  • Apache Spark如何并行计算_并行度

  1. Driver被构建出来。
  2. 构建SparkContext(执行环境入口对象)。
  3. 基于DAG Scheduler(DAG 调度器)构建逻辑Task的分配。
  4. 基于Task Scheduler(Task 调度器)将逻辑Task分配到各个Executor上干活,并监控它们。
  5. Worker(Executor)被监控,听它们的指令干活,并且定期汇报执行进度。
  • Driver内的的两个调度组件:
  • DAG 调度器
    工作内容:将逻辑DAG图进行处理,最终得到逻辑上的Task划分。
  • Task 调度器
    基于DAG Scheduler的产出,来规划这些逻辑的Task,应该在哪个物理Executor上面去运行,并且监控它们。