1、11月份内,每天早上6点到12点,每隔2个小时执行一次/usr/bin/httpd.sh

     0 6-12/2 * 11 * /usr/bin/httpd.sh 

2、编写shell 将/usr/local/test  目录下大于100k的文件转移到/tmp 目录下

     find /usr/local/test -type f -size +100k -exec mv {} /tmp \;

3、统计Apache访问日志

    cat access_log | awk ‘{print $1}’ | uniq -c|sort -rn|head -10 

4、如何用MySQL命令进行备份和恢复。创建一个备份,并再用此备份进行恢复

     mysqldump -u root -p test  > test.sql

         mysql -u root -p test < test.sql 

5、查看日常监控cpu、内存、磁盘命令

     vmstat 

     free -m

     iostat 

6、默认tomcat、nginx端口

     8080  80

7、Apache两种工作模式

     worker     混合的多个子进程下的错个线程。服务器会根据负载情况增加或减少进程数量。适用于负载量大的网站。

     prefork     进程模式。执行效率高,但是消耗资源多。

8、Linux下如何添加路由

     route add -host 192.168.1.1 dev eth0

     route add -host 192.168.1.100 gw 192.168.1.1

     添加到网络的路由

     route add -net ip netmask MASK eth0

     route add -net IP netmask MASK gw IP


9、5个常用的系统维护过网络维护工具名称

     iftop

     rsync

     fdisk

     sysstat  curl   elinks   

10、haproxy的作用,监听端口是多少

          端口          1080 

          提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机。

11、redis的作用

14、192.168.0.1/27 子网划分后,可用地址是多少,子网掩码是多少

     1-31

     32-63

     64-95      8 

          


15、将本地80端口请求转发到8080端口,当前主机为192.168.2.1

     

     iptables -t nat -A PREROUTING -d 192.168.2.1 -p tcp -dport 80 -j DNAT -to 192.168.2.1:8080           


16、查看占用8080端口的进程

     netstat -ntlp |grep 8080

     lsof -i:8080

17、网站访问慢,排查思路

18、那种协议既有tcp,又有UDP,telnet smtp DNS

          telnet  tcp

          SMTP  tcp

          dns     tcp/udp


19,简述一下lvs、nginx、haproxy  三种负载均衡的作用。


          LVS 

          1、抗负载能力强,基于四层分发,没有流量的产生,是负载均衡软件里性能最强的;

          2、配置简单;

          3、应用范围广

          算法 :轮询、权重、最小连接数、wlc、LBLC、DH、SH等等

          模式:nat

                DR

                TUN


          但是不支持正则处理,不能做动静分离

     

          nginx

          1、基于应用层分发,可以针对HTTP做一些基于域名、目录机构的分发等。

          2、对网络的依赖性非常小,能ping通就可以进行负载分发。

          3、还可以做为web应用服务器。

          但是只能支持HTTP和email

          算法:轮询、IP_hash、权重、fair、url_hash


          haproxy

          1、支持虚拟主机,可以工作在4、7层;

          2、可以对MySQL读进行负载均衡。不过在数量上有限制,在10台的时候性能就不如lvs了

          3、算法较多,8种(轮询、权重、最少连接、根据请求源IP、根据请求URL、根据url_param、hdr http请求头、drp-cookie)


20、简述Raid级别优缺点

     0 将数据分成两部分,同时写入多块磁盘。写入速度快,但是不冗余;

     1 两块硬盘互为镜像,磁盘空间利用率低,但是冗余

     5  可以冗余,但是至少得三块盘

     10  先将两块磁盘做1

     01    先做0,再做1,再把两组做0,既保证速度,又可以冗余。

21、日志统计


当前WEB服务器中联接次数最多的ip地址

#netstat -ntu |awk '{print $5}' |sort | uniq -c| sort -nr

 

查看日志中访问次数最多的前10个IP

#cat access_log  |cut -d ' ' -f 1 |sort |uniq -c | sort -nr | awk '{print $0 }' | head -n 10 |less

 cat access_log |awk '{print $1}'|uniq -c |sort -nr |head -10

查看日志中出现100次以上的IP

#cat access_log  |cut -d ' ' -f 1 |sort |uniq -c | awk '{if ($1 > 100) print $0}'|sort -nr |less

查看最近访问量最高的文件

#cat access_log |tail -10000|awk '{print $7}'|sort|uniq -c|sort -nr|less

 

查看日志中访问超过100次的页面

#cat access_log | cut -d ' ' -f 7 | sort |uniq -c |  awk '{if ($1 > 100) print $0}' | less

 

统计某url,一天的访问次数

#cat access_log|grep '12/Aug/2009'|grep '/p_w_picpaths/index/e1.gif'|wc|awk '{print $1}'

 

前五天的访问次数最多的网页

#cat access_log|awk '{print $7}'|uniq -c |sort -n -r|head -20

 

从日志里查看该ip在干嘛

#cat access_log | grep 218.66.36.119| awk '{print $1"\t"$7}' | sort | uniq -c | sort -nr | less

 

列出传输时间超过 30 秒的文件

#cat access_log|awk '($NF > 30){print $7}' |sort -n|uniq -c|sort -nr|head -20

 

列出最最耗时的页面(超过60秒的)

#cat access_log |awk  '($NF > 60 && $7~/\.php/){print $7}' |sort -n|uniq -c|sort -nr|head -100

22 、修改hostname

     vim /etc/sysconfig/network

23、禁至用户登录

     禁用 usermod -L test 

     解锁 usermod -U test

     或者修改/etc/passwd   把x修改成其他字符

24、手动增加swap分区大小

  1.      新建分区     dd if=/dev/zero of=/home/swap bs=1024 count=512000                                                  创建/home/swap这么一个分区文件,文件大小是521000个block,512M

  2.      把分区变为swap分区     /sbin/mkswap     /home/swap

  3.      使swap分区变为有效状态     /sbin/swapon  /home/swap

  4.      编辑/etc/fstab 自动挂载     /home/swap     swap swap defaults 0 0 

25、nginx 301重定向

        实现访问a.com的时候重定向到www.a.com

   

 server {
           server_name www.a.com a.com ;
            if ($host != 'www.a.com '){
            rewrite ^/(.*)$ http://www.a.com/$1 permanent;
             }
          
       }