业务背景:生产环境原先为Solr,因为Solr的性能问题,故现在抛弃它,团队决定使用ElasticSearch。先说说ElasticSearch和Solr的对比。Solr的优缺点:优点:Solr有一个更大、更成熟的用户、开发和贡献者社区。.支持添加多种格式的索引,如:HTML、PDF、微软Office系列软件格式以及JSON、XML、CSV等纯文本格式。Solr比较成熟、稳定。不考虑建索引的同时进
vsftp这个神奇的服务好久没有弄了,记得上次弄还是在学校的时候,哈哈。今天抽风搭建一下,试试!其实安装起来很简单,就是由于版本的问题,遇到了两个问题,下面我会一一阐述。一.安装sudoapt-getinstallvsftpd安装很简单,就需要这一步就安装了vsftpd服务了。二.配置文件/etc/vsftpd.conf----vsftpd的主配置文件/etc/vsftpd.user_list--
#!/bin/bash#hostnamectlset-hostnamek8s#echo"192.168.5.130k8s">>/etc/hosts#echo"192.168.5.131k8s1">>/etc/hosts#echo"192.168.5.132k8s2">>/etc/hosts#system
#!/bin/bash#卸载原有docker相关软件sudoyumremovedocker\docker-client\docker-client-latest\docker-common\docker-latest\docker-latest-logrotate\docker-logrotate\docker-engine#安装依赖sudoyuminstall-yyum-utils\device
主从模式redis主从模式,顾名思义。就是一主一从或一主多从。配置很简单,只需要在从的配置文件中写一个参数即可。slaveof <masterip> <masterport> # 例如 # slaveof 192.168.1.197 6379优点: 配置简单,使用灵活,数据安全性较高。缺点: 无法实现故障切换,当master down后,slave无法自动切换为
在安装ubuntu系统叶提示一个错误问题Sorry,command-not-foundhascrashed!Pleasefileabugreportat:..问题了,下面我们一起来看此问题解决办法。最近新装的Ubuntu12.04下,会碰到这个问题,输入命令会报出下面这个错误,导致很多命令都没法执行,后来查得,可能是语言的问题,安装的时候选了中文,有可能是此原因导致。Sorry,command-n
上一篇文章写了关于如何build一个可以复用的tomcat的image,这一篇文章讲一下,如何使用此镜像进行重复构建不同的项目。直奔主题:步骤一 创建相应的mavn项目job 其它配置均不变,主要更改的是build项目后的动作。 注:因为我的k8s集群只有一个节点,所以默认所有的pod会启动在node节点上,所以我这里直接把build好的war直接传到node节点上。再创建一个一个ss
写在前面,k8s集群均已经搭建好,具体步骤可以查看前面文章。编写Dockerfile文件,目的创建一个可以公用的image,每次部署tomcat直接使用该镜像不用每次都进行build镜像。# 开始本来想使用tomcat的官方镜像,但是无奈官方镜像的系统用的都是diban 8的系统,因为我要做日志切割,需要安装cronolog软件, # 翻篇google、百度并没有找到如何使用apt-get 安装,
写在前面1.关于docker+k8s的的搭建方法及过程,请参考前一篇博客2.我们使用的架构是duboo的架构模式。所有的应用除tomcat和jar以外都启动到虚拟机上。使用容器启动tomcat因为使用容器启动项目,必须要有进程跑在前台,不然容器run起来后会自动退出。所以我们对tomcat的官方镜像进行了二次的build并做了自己的一些配置。tomcat的官方镜像启动容器后,tomcat的日志是放
写在前面 因为我的节点都在国内,所以k8s的镜像无法在公网上顺利下载,而是下载的别人阿里云上的镜像,坐着不能保证镜像的安全性和官方性。环境介绍 Docker版本[root@k8s ~]# docker version Client: Version: 18.03.0-ce API version: 1.37 Go version: go1.9.4 Git
查看系统版本[root@localhost~]#cat/etc/issueCentOSrelease6.7(Final)Kernel\ronan\m安装PostgreSQL数据库安装yum源[root@localhost~]#rpm-Uvhhttp://download.postgresql.org/pub/repos/yum/9.5/redhat/rhel-6.7-x86_64/pgdg-cen
Yumyum是一个shell前端软件包管理器,基于rpm包管理,能够从指定的服务器自动下载rpm包并且安装,可以自动处理依赖性关系,并且一次安装所有依赖的软件包。yum--version查看yum版本[root@Kong~]#yum--version3.2.29Installed:rpm-4.8.0-55.el6.x86_64at2018-01-1511:08Built:CentOSBuildSy
pstree查看进程树将所有进程以树状形式显示,表示进程间的关系以init进程(PID为1)为根或者指定PID的进程为根init进程,它是内核启动的第一个用户级进程pstree-V查看版本,这里介绍22.15root@ubuntusvn:~#pstree-Vpstree(PSmisc)22.15版权所有(C)1993-2009WernerAlmesberger和CraigSmallPSmisc无任
首先还是上图看看mongodb通过哪些机制实现路由、分片:从图中可以看到有四个组件:mongos、config server、shard、replica set。mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作
MongoDB Sharded Cluster 原理如果你还不了解 MongoDB Sharded cluster,可以先看文档认识一下中文简介:MongoDB Sharded cluster架构原理英文汇总:https://docs.mongodb.com/manual/sharding/什么时候考虑用 Sharded cluster?当你考虑使用 Sharded cluster 时,通常是要解
为什么需要Sharded cluster?MongoDB目前3大核心优势:『灵活模式』+ 『高可用性』 + 『可扩展性』,通过json文档来实现灵活模式,通过复制集来保证高可用,通过Sharded cluster来保证可扩展性。当MongoDB复制集遇到下面的业务场景时,你就需要考虑使用Sharded cluster存储容量需求超出单机磁盘容量活跃的数据集超出单机内存容量,导致很多请求都要从磁盘读
背景介绍之前项目上api的接口用的是自己nginx搭建的反向代理接口,觉得功能性比较查差,故而另辟蹊径找到了kong作为接口网关服务。工作原理kong会把所有的后端接口对应的数据放到cassandra数据库中,对外只暴漏自己的接口,这样对于前端的开发人员来说就透明了许多,也方便了许多,后端的运维人员管理起来也方便了许多。系统环境介绍系统版本:CentOSrelease6.7(Final)kong版
背景线下有一台虚拟机df-h发现根分区内存不足,已用空间已经达到98%了,这样会造成很多问题,所以要给根分区增加空间root@dubboadmin:~#df-h文件系统容量已用可用已用%挂载点/dev/mapper/dubboadmin--vg-root96G94G500M98%/none4.0K04.0K0%/sys/fs/cgroupudev2.0G4.0K2.0G1%/devtmpfs396
Free Linux, Share Linux博主的python地址
从接触运维开始,最苦逼的事情就是业务上线,为什么这么说? 就是因为有了很多的大坑队友。不是因为开发的童鞋漏提代码,就是因为测试童鞋线下测试的不到位导致代码扔到线上后出现各种问题,各种404。近期和各位童鞋研究了应对这种现象的解决方案,得到了如下结果:上线分为如下几种等级:测试发布、预发布、灰度发布、正式发布,下面分来来针对这四种发布介绍下区别。测试发布:写完程序在线下测试,测试的过程和结果成为测试
场景:近期小L发布app的时候遇到个头疼的事情,由于苹果app store需要审核原因,项目需要部署最新版本,但又不能影响来版本的正常使用; 分析问题:如果是app业务相关的程序bug、或者是预发布版本 解决方案:配置dubbo多版本 <dubbo:protocol id="c
Nginx默认是禁止跨域操作,可能说到跨域好多伙伴会有点迷糊,什么叫跨域?为什么不能跨域呢? 看下面小编的详解。url说明是否跨域http://www.cnblogs.com/a.jshttp://www.a.com/b.js不同域名是http://www.a.com/lab/a.jshttp://www.a.com/script/b.js同一域名下不同文件夹否http://www.a
Nginx是我们生产环境的主要入口,所有的请求都会在这里留下痕迹,所以会导致一个问题,它的日志文件会一天比一天的大。直到有一天你无法接受这个庞大的文件的时候,就你就会想到了切割文件的这个办法。能想到切割日志的童鞋那肯定是对Nginx用的熟悉的不能再熟悉的了,所以这里我就不过多的阐述Nginx的应用了,只说一个点 -USR1选项的用法在没有执行kill -USR1 `cat ${pid_
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号