配置文件如下# 监听127.0.0.1:8080 http_port 127.0.0.1:8080 accel allow-direct acl manager proto cache_object http_access allow manager # 对日志文件和pid文件位置进行设置
port:k8s 有个service的东西,相当于内部的负载均衡,但是后面要挂载很多pod 对其他应用提供服务,那么就有个监听端口,这个端口就是porttarget_port:简单的说,其实就是pod 的端口node_port:这个更好理解,就是物理节点的上的端口
51CTO博客开发
首先转载下别人总结的文章相同点:1. Tomcat和Jetty都是一种Servlet引擎,他们都支持标准的servlet规范和JavaEE的规范。 不同点:1. 架构比较Jetty的架构比Tomcat的更为简单Jetty的架构是基于Han
1,apiVersion: extensions/v1beta1 kind: Deployment metadata: name: alpine7-deploy labels: app: alpine7-deploy spec:  
在stackoverflow上 也有人这样提问Kubernetes - Why does selector field fail to validate for Deployment?看到回答是Selector directives in Deployments require you to use a sub-field of either matchLabels&
看了官网的apiversion 的文档,说是同时兼容了好几个接口而最新的deployment接口的目录位置是"apiVersion": "apps/v1beta1"当时从ui 面板上用yaml 去创建的时候,就遇到了问题,直接报错,没有这个kind 在apps/v1beta1里面这时我换回用apiVersion: extensions/v1beta1再次上传
由于k8s 最小管理单位是pod ,之前我说过,建议一个pod 一个容器,那么假设有多个pod 一起对外提供相同的服务,那么统一的接口是什么呢?service 其实就是这样一个角色,当frontend 服务要请求backend服务的时候,f只认b的对外暴露的访问接口,至于放到backend后面的哪个pod它并不关心,这个过程,有点想负载均衡,或者说是代理所以,我才在上面应该到时候还会有有个服务注册
1,直接在master上创建认证kubectl create secret docker-registry harbor --docker-server=harbor.studeylinux.com --docker-username=dev --docker-password=Iwjw123456 --docker-email=894818965@qq.com2,编写pod yaml 文件api
pod 是k8s 最小的管理单元,个人理解是,pod 大概是一个运行一个或者一组docker 的虚拟逻辑上的主机,那么问题来了1,为什么不把所有的docker 都打进安装进一个pod,因为这样的话,跟巨石型的服务没有什么区别,一旦横向扩展,便是全部进行扩展2,那么pod里的多组docker 用在什么地方,那就是用高耦合的一组服务上,比如a和b 相互依赖运行,那么,在解耦合之前,这个两个服务就一定要
1,CONFIGURATION OF DISCOVERY RULES创建规则,填写ip地址范围,然后已用后面的key 来添加机器,在创建机器的时候也可以用一些先关的标准模板今天挂在,key 是system.uname2,自定义添加java 端口监控python脚本#!/usr/bin/env python import os import json java_pid&
前提条件是,参考docker(二)添加私有仓库认真,这里假设,k8s node 节点,已经通过,harbor 的认证,这是 在/root/.docker/下生成config.json 文件内容大概就是{ "auths": { "harbor.studeylinux.com": { "auth":
总会遇到遇到处理文件的问题,比如文件后缀修改,以前都是写shell,后来发现有个更简单的方法rename1,在centos 下是用c 写的 rename用法: a.txt 修改为 a.cc &nbs
# AlpineLinux open jre 7 FROM alpine:latest # Install cURL RUN echo -e "https://mirror.tuna.tsinghua.edu.cn/alpine/v3.4/main\n\ https://mirror.t
在做jenkins 和docker 集成的时候,尤其是用docker 和dockerfile 构建新镜像的时候会遇到jenkins 不能执行docker命令的问题报错信息:+ docker build -t appserver . Cannot connect to the Docker daemo
docker 的坑是真尼玛多,私有认证都卡了我两天,看官方文档都要靠猜鄙视下,废话不多说,记录下,搞起两台机器,harbor jenkins使用域名登录harbor,我这里只做了host绑定,如果是生产或者有条件,直接在dns里做a记录,然后申请第三方的ca证书,注意:一定要记住申请ca证书时的所有信息1,自制证书 在harbor上操作mkdir /opt/cakey cd&
由于docker1.3以后都是用https进行传输的,所以用jenkins 构建的images 要修改本地docker 的配置具体如下环境是centos7.2vim /usr/lib/systemd/system/docker.service在ExecStart 结尾添加--insecure-registry=仓库IP修改结果如下ExecStart=/usr/bin/dockerd-current
个人认为docker的最大的优势在与,服务搭建极大的减少了N多配置,就可以运行服务,另外由于体积小,又能隔离空间,可以快速的部署,发布,弹性伸缩,提高了服务器的利用率。但是在有些方面对于企业级来讲,并不使用而且还很坑1,负载均衡2,缓存服务器3,数据缓存层4,数据层5,基础服务(git,jenkins等)为什么,因为这些个服务,不存在docker 适用的场景,这写服务或者说是系统层级,一旦构建好,
部署环境centos-7.2 docker-engine-1.12.6 docker-compose-1.9.0 harbor-0.5.01,安装docker-composecurl -L https://github.com/docker/compose/releases/download/1.9.0/docker-compose-`uname -s`-`uname
基础镜像用alpine 因为他小,有包管理器dockerfile如下# AlpineLinux open jre 7 FROM alpine:latest # Install cURL RUN echo -e "https://mirror.tuna.tsinghua.edu.cn/al
废话不多说,搞起!环境centos7.2一下来自官方install 文档sudo yum install curl policycoreutils openssh-server openssh-clients -y sudo systemctl enable sshd sud
不废话,搞起双M 模式环境1,java-1.8 这里有个问题,centos 安装yum install java-1.8 是只是安装的java 运行环境jre,还缺少开发包 所以在编译的时候会有问题,使用yum install yum install java-1.8.0-openjd
redis集群安装用的是codis ,由豌豆荚开源,相比较twemproxy的好处有很多,参考http://blog.csdn.net/hunci/article/details/51799468不废话,搞起下面的安装文档抄袭了小炒肉的,连接如下https://www.kissni.com/2017/04/06/codis-redis/ 官网的搭建文档看https://github.com/Cod
今天大概研究下wiredtiger引擎,mongo从3.0开始引入,主要为了解决吃内存多,占用大量磁盘空间的问题,其实即使用了wt引擎,在性能上还是比tokuft要差,但是tokuft 在功能上代码迭代的太慢,退而求其次大家还是用了mongo,首先3.0的时候默认还是mmapv1 引擎,所以需要重新指定wt引擎,从3.2版本后就是默认了wt了,我用的现在是3.4 主要是配置上的优化,看
废话不多说三台机器host1,host2,host3查看官方安装文档https://docs.mongodb.com/manual/tutorial/install-mongodb-on-red-hat/编辑源文件vim /etc/yum.repos.d/mongodb-org-3.4.repo[mongodb-org-3.4] name=MongoDB Repositorybaseu
1,安装 wget tar zxvf zookeeper-3.4.9.tar.gz cd zookeeper-3.4.9/conf cp zoo_sample.cfg zoo.cfg 修改zoo.cfg配置文件
遇到一个问题,nginx 完全做反向代理的时候,当有请求来的时候,后端服务器,有时可以很快返回结果,但有时根本没有访问到后端服务器查了下发现nginx 这个需要手动进行配置,让nginx 支持下划线Syntax:underscores_in_headers on | off;Default:underscores_in_headers off;Context
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号