kube-scheduler调度扩展_kube-scheduler

 

Kubernetes 自带了一个默认调度器kube-scheduler,其内置了很多节点预选和优选的调度算法,一般调度场景下可以满足要求。但是在一些特殊场景下,默认调度器不能满足我们复杂的调度需求。我们就需要对调度器进行扩展,以达到调度适合业务场景的目的。

背景

中间件redis容器化后,需要两主不能在同一个节点上,一对主从不能在同一节点上;elasticsearch容器化后,两个data实例不能在同一节点上。在这类场景下,默认调度器内置的预选、优选算法不能满足需求,我们有以下三种选择:

  •  

    将新的调度算法添加到默认调度程序中,并重新编译镜像,最终该镜像运行的实例作为kubernetes集群调度器;

     

  •  

    参考kube-scheduler实现满足自己业务场景的调度程序,并编译镜像,将该程序作为独立的调度器运行到kubernetes集群内,需要用该调度器调度的pod实例,在spec.schedulerName里指定该调度器;

    kube-scheduler调度扩展_kube-scheduler_02

     

  •  

    实现“调度扩展程序“:默认调度器kube-scheduler在进行预选时会调用该扩展程序进行过滤节点;在优选时会调用该扩展程序进行给节点打分,或者在bind操作时,调用该扩展器进行bind操作。

     

对上述三种方式进行评估:

第一种:将自己的调度算法添加到默认调度器kube-scheduler中,对原生代码侵入性较高,而且随着kubernetes版本升级,维护成本也较高;

第二种:默认调度器里内置了很多优秀调度算法,如:检查节点资源是否充足;端口是否占用;volume是否被其他pod挂载;亲和性;均衡节点资源利用等,如果完全使用自己开发的调度器程序,可能在达到了实际场景调度需求同时,失去更佳的调度方案,除非集成默认调度器中的算法到自己独立调度程序中,但这无疑是不现实的;

第三种:通过启动参数的policy配置,选用某些默认调度器中的预选、优选调度算法的同时,也可以调用外部扩展调度程序的算法,计算得到最优的调度节点,无需修改kube-scheduler代码,只需要在启动参数中增加配置文件即可将默认调度程序和扩展调度程序相互关联。

可以参考:

https:///kubernetes/community/blob/master/contributors/design-proposals/scheduling/scheduler_extender.md

故采用第三种:实现扩展调度程序的方案。

整体架构

kube-scheduler调度扩展_kube-scheduler_03

kube-scheduler在调度pod实例时,首先获取到Node1、Node2、Node3三个节点信息,进行默认的预选阶段,筛选满足要求的节点,其次再调用扩展程序中的预选算法,选出剩下的节点,假设预选阶段Node3上资源不足被过滤掉,预选结束后只剩Node1和Node2;Node1和Node2进入kube-scheduler默认的优选阶段进行节点打分,其次再调用扩展调度程序中的优选算法进行打分,kube-scheduler会将所有算法的打分结果进行加权求和,获得分数最高的节点作为pod最终bind节点,然后kube-scheduler调用apiserver进行bind操作。

实现步骤

实现扩展调度程序代码

编写扩展调度器程序代码,根据实际业务调度场景编写预选逻辑、优选逻辑:

kube-scheduler调度扩展_kube-scheduler_04

实现预选接口,入参为schedulerapi.ExtenderArgs,出参为schedulerapi.ExtenderFilterResult:

kube-scheduler调度扩展_kube-scheduler_05

实现优选接口,入参为schedulerapi.ExtenderArgs,出参为schedulerapi.HostPriorityList:

kube-scheduler调度扩展_kube-scheduler_06

暴露http接口:

kube-scheduler调度扩展_kube-scheduler_07

参考:

https:///ll837448792/k8s-scheduler-extender-example

默认调度器部署

由于kubernetes集群内已经有了一个名为default-scheduler的默认调度器,为了不影响集群正常调度功能,下面会创建一个名为my-kube-scheduler的调度器,这个调度器和default-scheduler除了启动参数不一样外,镜像无差别。

1、创建一个名为my-scheduler-config的configmaps,data下的config.yaml文件指定了调度器的一些参数,包括leader选举,调度算法策略的选择(指定另一个configmaps),以及指定调度器的名称为my-kube-scheduler。

相应的创建一个my-scheduler-policy的configmaps,里面指定了选择哪些预选、优选策略,以及外部扩展调度程序的urlPrefix、扩展预选URI、扩展优选URI、扩展pod优先级抢占URI、扩展bind URI、扩展优选算法的权重等。

以保证my-kube-scheduler和扩展调度程序的通信。

  1. apiVersion: v1

  2. kind: ConfigMap

  3. metadata:

  4. name: my-scheduler-config

  5. namespace: kube-system

  6. data:

  7. config.yaml: |

  8. apiVersion: /v1alpha1

  9. kind: KubeSchedulerConfiguration

  10. schedulerName: my-kube-scheduler

  11. algorithmSource:

  12. policy:

  13. configMap:

  14. namespace: kube-system

  15. name: my-scheduler-policy

  16. leaderElection:

  17. leaderElect: false

  18. lockObjectName: my-kube-scheduler

  19. lockObjectNamespace: kube-system

  20. ---

  21. apiVersion: v1

  22. kind: ConfigMap

  23. metadata:

  24. name: my-scheduler-policy

  25. namespace: kube-system

  26. data:

  27. policy.cfg : |

  28. {

  29. "kind" : "Policy",

  30. "apiVersion" : "v1",

  31. "predicates" : [

  32. {"name" : "PodFitsHostPorts"},

  33. {"name" : "PodFitsResources"},

  34. {"name" : "NoDiskConflict"},

  35. {"name" : "MatchNodeSelector"},

  36. {"name" : "HostName"}

  37. ],

  38. "priorities" : [

  39. {"name" : "LeastRequestedPriority", "weight" : 1},

  40. {"name" : "BalancedResourceAllocation", "weight" : 1},

  41. {"name" : "ServiceSpreadingPriority", "weight" : 1},

  42. {"name" : "EqualPriority", "weight" : 1}

  43. ],

  44. "extenders" : [{

  45. "urlPrefix": "http://10.168.107.12:80/scheduler",

  46. "filterVerb": "predicates/always_true",

  47. "prioritizeVerb": "priorities/zero_score",

  48. "preemptVerb": "preemption",

  49. "bindVerb": "",

  50. "weight": 1,

  51. "enableHttps": false,

  52. "nodeCacheCapable": false

  53. }],

  54. "hardPodAffinitySymmetricWeight" : 10

  55. }

2、在my-kube-scheduler yaml文件中将configmaps:my-scheduler-config以文件的形式挂载到容器内/my-scheduler目录下,并在启动参数中指定--config=/my-scheduler/config.yaml,使用和默认调度器一样的镜像。

kube-scheduler调度扩展_kube-scheduler_08

增加挂载:

kube-scheduler调度扩展_kube-scheduler_09

kube-scheduler调度扩展_kube-scheduler_10

扩展调度器镜像制作和部署

1、编译扩展调度程序my-scheduler-extender镜像,以下为Dockerfile:

kube-scheduler调度扩展_kube-scheduler_11

推送my-scheduler-extender镜像到harbor:

kube-scheduler调度扩展_kube-scheduler_12

2、创建外部扩展程序my-scheduler-extender的deployment,如下为yaml描述:

  1. apiVersion: apps/v1

  2. kind: Deployment

  3. metadata:

  4. name: my-scheduler-extender

  5. namespace: kube-system

  6. labels:

  7. app: my-scheduler-extender

  8. spec:

  9. replicas: 1

  10. selector:

  11. matchLabels:

  12. app: my-scheduler-extender

  13. template:

  14. metadata:

  15. labels:

  16. app: my-scheduler-extender

  17. spec:

  18. containers:

  19. - name: my-scheduler-extender

  20. image: 192.168.26.46/k8s-deploy/my-scheduler-extender:v1.0

  21. imagePullPolicy: Always

  22. livenessProbe:

  23. httpGet:

  24. path: /version

  25. port: 80

  26. readinessProbe:

  27. httpGet:

  28. path: /version

  29. port: 80

  30. ports:

  31. - containerPort: 80

验证

查看my-kube-scheduler pod日志,加载到了policy里的extender信息,获取到了扩展调度器的接口地址:

kube-scheduler调度扩展_kube-scheduler_13

创建一个nginx的pod,指定schedulerName为my-kube-scheduler:

kube-scheduler调度扩展_kube-scheduler_14

查看扩展调度器pod日志,发现默认调度器会调用extender扩展调度器,如下为extender日志打印的入参、出参:

kube-scheduler调度扩展_kube-scheduler_15

从而可以通过编写扩展调度程序,对默认调度器的预选和优选算法进行扩展。

 

 

kube-scheduler调度扩展_kube-scheduler_16