URL检测网站健康状态脚本
脚本一
wget 参数 : --spider 模拟爬虫访问网站 -q 安静的访问不输出 -T 访问网站超时时间 -t 当网站异常时重试网站的次数
例: [root@qunniao ~]# wget --spider -T 5 -q -t 2 www.baidu.com [root@qunniao ~]# echo $? #使用返回值确定网站是否正常 0
[root@qunniao ~]# vim wget_url.sh ############################################################# # File Name: wget_url.sh # Author: xunyin # E-mail: lnhxzwb@126.com # Created Time: Mon 01 Apr 2019 12:49:01 AM CST #================================================================== #!/bin/bash wget --spider -q -T 5 -t 2 $1 if [ $? = 0 ];then echo "$1 访问OK!!!" #此处可写邮件发送管理员 else echo "$1 访问失败,请检查!!" #此处可写邮件发送管理员 fi
脚本二
curl 参数: -s 静默访问 -o 记录访问信息到文件中
例: [root@qunniao ~]# curl -s -o /dev/null www.baidu.com [root@qunniao ~]# echo $? #使用返回值确定网站是否正常 0
[root@qunniao ~]# vim curl_url.sh ################################################################### # File Name: curl_url.sh # Author: xunyin # E-mail: lnhxzwb@126.com # Created Time: Mon 01 Apr 2019 01:27:03 AM CST #================================================================== #!/bin/bash curl -o /dev/null -s $1 if [ $? = 0 ];then echo "$1 访问OK!!!" #此处可写邮件发送管理员 else echo "$1 访问失败,请检查!!" #此处可写邮件发送管理员 fi
温馨提示:如无特殊说明,本站文章均为作者原创,转载请注明出处!