所需要的源码包:mariadb-5.5.46-linux-x86_64.tar.gzhttpd-2.4.9.tar.bz2php-5.4.26.tar.bz2nginx-1.8.1.tar.gz编译mariadb:[root@centos7 ~]# yum -y remove mariadb*[root@centos7 ~]# tar xf mariadb-5.5.46-linux-x86_64.
最近一直在做性能排查,思路就是根据分析Nginx日志,得到响应耗时的url、以及请求时间,再得到这段时间的请求量,并发量,分析是并发的原因,还是本身就比较慢,如果是应用本身的原因,只需要找到对应的代码,然后进行优化就好了 找到的几个原因,基本就是后端sql运行的比较多,单次访问看不出来,但是人比较多的时候就比较慢了,人少的时候20-200毫秒,人多的时候,200-6000毫秒
nginx在工作中要优化的点: ①CPU核心数 ②根据系统硬件,将各种Buff或Cache调大 ③开启gzip
主机:IP->192.168.88.60 nginx已安装OK(省略)备机:IP->192.168.88.80 nginx已安装OK(省略)VIP:192.168.88.20 第一步:主备一起安装keepalived yum install -y keepalived第二步:配置/etc/keepalived/keepalived.conf
你在Linux上安装Nginx一切顺利,访问localhost时也显示了index.html的页面可是你在html文件夹下建立p_w_picpaths文件夹后,向里面仍一张图片后nginx |-conf |-hmtl |-index.html |-p_w_picpaths |-xx.j
#vim /etc/init.d/nginx#!/bin/bash# chkconfig: - 30 21# description: http service.# Source Function Library. /etc/init.d/functions# Nginx SettingsNGINX_SBIN="/usr/local/nginx/sbin/nginx"NGINX_CONF="/us
nginx维护页面处理-全部URL指向同一个页面一般来说nginx的维护页面需要把所有访问本站的链接全部重定向到某个指定页面方法一 rewriterewrite ^(.*)$ /maintain.html break;注意这句后面如果有重定向等语句,那么后面执行的重定向等语句需要全部注释掉方法二 使用状态码location /{ return 503;}注意其他locatio
参考配置server { listen 80; server_name 10.10.76.231; root html; index index.html
ansible -i hosts ip1 -m synchronize -a 'mode=pull src=file.tar.gz dest=/tmp/fenku/'ansible -i hosts ip2 -m synchronize -a 'src=/tmp/fenku/ dest=/xx/xx/'command,shell,scriptCopycopy: src=/opt/src/profi
首先这边是乙方,项目多,系统多。新上线的项目都是脚本去做发布,早上又赶了套脚本。之前公司有兄弟运行了下面这套脚本未加参数,说静态资源未发成功,tomcat 和发布系统的agent反而给干没了,于是又做了点优化,加了参数判断。$ cat copy_h5_mall_new.sh
#!/bin/sh
#copy h5 mall
nginx_static
一、 地址规划 nginx1-10.1.1.2 nginx2-10.1.1.3 vip-10.1.1.4 
一、一般来说nginx 配置文件中对优化比较有作用的为以下几项:1. worker_processes 8;nginx 进程数,建议按照cpu 数目来指定,一般为它的倍数 (如,2个四核的cpu计为8)。2. worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000
nginx反向代理:192.168.1.1、192.168.1.2web服务器 :192.168.1.3、192.168.1.4这里的nginx是编译安装的,安装在/usr/loacl/下正常启动nginx服务后进入配置文件(1.1和1.2都要配置)#vim /usr/local/nginx/conf/nginx.conf在http模块里
目前的zabbix监控了900台左右服务器,大概有11万items,zabbix在工作时根据agent的工作特点分为主动模式和被动模式,实际上一般开启兼容模式。在items多了后,有一些速度慢的items如果不采用主动模式,会把server端拖死,而zabbix_sender其实是一种变相的主动模式,配合计划任务,主动将k/v上传到zabbix,现将nginx日志zabbix_sen
如果被下载的文件是Office2007的dotx,docx,pot等后缀的时候,下载对话框中的图标会变成ZIP的,相应的文件名也会成为zip为扩展后缀的文件。
其实出现这样的情况,是由于IE中对下载文件类型的判断,假如找不到相应后缀的MIME的话,会自动根据数据流来判断文件的类型,而微软对Office2007的格式做了和以前完全不同的处理
一、tomcat处理方式(在web.xml中加入以下代
last: 停止当前这个请求,并根据rewrite匹配的规则重新发起一个请求。新请求又从第一阶段开始执行…break:相对last,break并不会重新发起一个请求,只是跳过当前的rewrite阶段,并执行本请求后续的执行阶段…我们来看一个例子:server {
listen 80 default_server;
&nb
VPC32 cpus,8G ram,SSDlinux 环境是centos 7apache 2.4 yum安装base库php 5.4 yum安装base库php-fpm 5.4 yum安装base库nginx 1.10 yum安装epel库windows 环境是 windows server 2012R2apache 2.4php &nb
直接搬砖: ansible 安装很简单 pip install ansible 搞定 通常第一个命令是 ansible all -m p
一. 到阿里云云盾证书服务申请免费SSL证书:https://common-buy.aliyun.com/?spm=5176.7968328.231195.1.7FheST&commodityCode=cas#/buy 二. 下载证书解压到nginx安装目录下,如:nginx
日志是supervisor打出来的python日志,且把不同格式的日志打印到了同一批文件里,需求是把带post和ERROR关键字的日志分离,并进入两个不同kafka的topic队列,目前的情况是rsyslog已经收集了nginx的访问日志,不能相互影响,就是说不能直接用if判断做分离,因为可能会日志混掉。要收集的日志格式如下:ERROR:root:requeue {"wit
一,安装 1.安装前先安装三个前提框架(暂时这么解释)pcre,openssl,和zlib 2.安装pcre,先运行:yum install gcc gcc-c++ autoconf automake 保证make时不会出现错误 3.查看系统是否装有pcre: rpm -qa pcre 如果有删除系统自带的pcre: rpm -e --node
cd /etc/nginx/conf.d创建密码文件和用户密码htpasswd -c .htpasswd fileuser_chenshifei输入密码vim default.conf配置文件server { listen 80 default_server; #listen
puppet一键部署lnmt安装包下载路径http://down.51cto.com/data/2290539 yum install ./*.rpmpuppet模块文件路径mkdir -pv /etc/puppet/modules/{openjdk,nginx,tomcat,mari
两个名词SMP (Symmetrical Multi-Processing)指在一个计算机上汇集了一组处理器(多CPU)各CPU之间共享内存子系统以及总线结构。CPU affinity中文唤作“CPU亲和力”是指在CMP架构下能够将一个或多个进程绑定到一个或多个处理器上运行。一、在Linux上修改进程的“CPU亲和力”在Linux上可以通过 taskset 命令进行修改。以Ubuntu为例运行如下
两个名词SMP (Symmetrical Multi-Processing)指在一个计算机上汇集了一组处理器(多CPU)各CPU之间共享内存子系统以及总线结构。CPU affinity中文唤作“CPU亲和力”是指在CMP架构下能够将一个或多个进程绑定到一个或多个处理器上运行。一、在Linux上修改进程的“CPU亲和力”在Linux上可以通过 taskset 命令进行修改。以Ubuntu为例运行如下
最近一直在做性能排查,思路就是根据分析Nginx日志,得到响应耗时的url、以及请求时间,再得到这段时间的请求量,并发量,分析是并发的原因,还是本身就比较慢,如果是应用本身的原因,只需要找到对应的代码,然后进行优化就好了我找到的几个原因,基本就是后端sql运行的比较多,单次访问看不出来,但是人比较多的时候就比较慢了,人少的时候20-200毫秒,人多的时候,200-6000毫秒,优化之后基本保持在几