新博客地址:传送门
环境如下//前三个为K8s集群中的节点主机名IP运行服务docker-k8s01192.168.171.151docker+registrydocker-k8s02192.168.171.150dockerdocker-k8s03192.168.171.152dockerJenkins192.168.171.153Jenkins+gitlab+dockerJenkins采用war包的方式部署,需要
1、运行web容器作为私有仓库(我在node01上运行这个容器)#运行web容器[root@docker-k8s02~]#dockerrun-d-p81:80-v/var/www:/usr/local/apache2/htdocshttpd#创建目录,用于存放charts包[root@docker-k8s02~]#mkdir-p/var/www/charts2、通过helmpackage将tese
一、helm支持的四种安装方法安装仓库中的chart包,命令举例:helminstallstable/xxx;通过tar包安装,命令举例:helminstallxxx-1.tgz(不推荐使用);通过chart本地目录安装,命令举例:helminstallxxx/xxx(一般是使用helmfetchstable/xxxxx下载相应的模板,然后使用tarzxf解压,修改解压后的目录中的valumes.
一、helm在Kubernetes中部署容器云的应用也是一项有挑战性的工作,Helm就是为了简化在Kubernetes中安装部署容器云应用的一个客户端工具。通过helm能够帮助开发者定义、安装和升级Kubernetes中的容器云应用,同时,也可以通过helm进行容器云应用的分享。在KubeappsHub中提供了包括Redis、MySQL和Jenkins等常见的应用,通过helm可以使用一条命令就能
注:以下只是在yaml文件中进行资源限制的一个片段,并不是完整的yaml文件1、针对Pod的资源限制//cgroup-pod.yamlspec:containers:-name:xxximage:xxxports:-protocol:TCPcontainerPort:80resources:limits://硬限制cpu:"4"memory:2Girequests://运行pod时请求的资源数量c
一、HPAHPA的全称为HorizontalPodAutoscaling,它可以根据当前pod资源的使用率(如CPU、磁盘、内存等),进行副本数的动态的扩容与缩容,以便减轻各个pod的压力。当pod负载达到一定的阈值后,会根据扩缩容的策略生成更多新的pod来分担压力,当pod的使用比较空闲时,在稳定空闲一段时间后,还会自动减少pod的副本数量。若要实现自动扩缩容的功能,还需要部署heapster服
一、部署dashboard的Web-UI界面1、下载yaml文件//github搜索dashboard找到该项目//下载yaml文件[root@docker-k8s01~]#wgethttps://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0/aio/deploy/recommended.yaml//编辑yaml文件[root@dock
在Kubernetes中,服务和Pod的IP地址仅可以在集群网络内部使用,对于集群外的应用是不可见的。为了使外部的应用能够访问集群内的服务,在Kubernetes中目前提供了以下几种方案:NodePortLoadBalancerIngressNodePort,简单来说,就是通过service这种资源对象,为后端pod提供一个统一的访问接口,然后将service的统一访问接口映射到群集节点上,最终实
1、什么是有状态服务和无状态服务?对服务器程序来说,究竟是有状态服务,还是无状态服务,其判断依旧是指两个来自相同发起者的请求在服务器端是否具备上下文关系。如果是状态化请求,那么服务器端一般都要保存请求的相关信息,每个请求可以默认地使用以前的请求信息。而对于无状态请求,服务器端所能够处理的过程必须全部来自于请求所携带的信息,以及其他服务器端自身所保存的、并且可以被所有请求所使用的公共信息。无状态的服
实现k8s的数据持久化的流程为:搭建nfs底层存储---->创建PV---->创建PVC---->创建pod。最终pod中的container实现数据的持久化。上述流程中,看似没什么问题,但细想一下,PVC在向PV申请存储空间的时候,是根据指定的pv名称、访问模式、容量大小来决定具体向哪个PV来申请空间的,如果PV的容量为20G,定义的访问模式是WRO(只允许以读写的方式挂载到单
1、搭建nfs存储[root@docker-k8s01~]#yum-yinstallnfs-utils[root@docker-k8s01~]#mkdir/nfsdata/mysql-p[root@docker-k8s01~]#cat/etc/exports/nfsdata*(rw,sync,no_root_squash)[root@docker-k8s01~]#systemctlrestartn
数据的持久化一直都是需要我们非常关心的问题,docker如此,K8s也不例外。在k8s中,有一个数据卷的概念。k8s数据卷主要解决了以下两方面问题:数据持久性:通常情况下,容器运行起来后,写入到其文件系统的文件时暂时性的。当容器崩溃后,kebelet将这个容器kill掉,然后生成一个新的容器,此时,新运行的容器将没有原来容器内的文件,因为容器是重新从镜像创建的。数据共享:同一个pod中运行的容器之
服务类的Pod容器:RC、RS、DS、Deployment.(Pod内运行的服务,要持续运行)工作类的Pod容器:Job--->执行一次,或者批量执行处理程序,完成之退出容器。//举个栗子kind:JobapiVersion:batch/v1metadata:name:test-jobspec:template:metadata:name:test-jobspec:containers:-n
ReplicationController(老一代的Pod控制器)简称:RC用于确保由其掌控的Pod对象副本数量,能够满足用户期望,多则删除,少则通过模板创建。特点:确保Pod资源的对象的数量精准确保Pod健康运行弹性伸缩同样,他也可以通过yaml或json格式的资源清单来创建。其中spec字段一般嵌套以下字段:replicas:期望的Pod对象副本数量selector:当前控制器匹配Pod对象副
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号