监控网站URL是否正常最常见的方法莫过于wgetcurl命令了,这两个命令都是非常强大的,强大到网友查看帮助都无从选择的地步了,今天呢,老男孩老师正好录制Shell编程实战课程,因此,顺便总结了一下和大家分享。

1.1  wget命令

wget命令的参数非常多,至少也有数十个, 但是运维工作中常用的并不多,老男孩老师把最有用的列表如下。

wget命令

下载网页或文件

--spider

模拟爬虫的行为去访问网站,但不会下载网页

-q,    --quiet

安静的访问,禁止输出,类似-o /dev/null功能

-o,    --output-file=FILE

记录输出到文件

-T,    --timeout=SECONDS

访问网站的超时时间

-t,    --tries=NUMBER

当网站异常时重试网站的次数

实际监控方法如下:利用wget命令返回值确定网站是否正常

[root@oldboy ~]# wget --spider -T 5 -q -t 2 www.oldboyedu.com

[root@oldboy ~]# echo $? #<==利用返回值确定网站是否正常。

0

1.2  curl命令

curl命令的参数比wget的参数还多,但运维中常用的参数也并不多,因此也是列表如下:

curl命令

访问网站url

-I/--head