目录zabbix监控zabbix概述zabbix 监控原理zabbix 6.0功能组件1、Zabbix Server2、数据库3.、Web 界面4、Zabbix Agent5、Zabbix Proxy6、Java GatewayZabbix部署部署 zabbix 服务端zabbix的客户端部署自我监控添加zabbix的其他客户端主机zabbix监控zabbix概述zabbix 是一个基于 Web
Python 构建 web 应用如果说仅仅要用 Python 构建 web 应用,可以将 socket 连接、HTTP 原始请求和响应格式等涉及网络基础的东西交给现成的库来实现,只需要专注于 web 端界面、交互、业务逻辑以及数据库的设计,那么使用 Python 构建一个 web 应用实际上就比较简单了。关于 Python 这门语言这是我第一次使用 Python 语言,简单了看了下 廖雪峰的
转载 2024-09-03 20:01:43
56阅读
http协议包含请求与应答requests模块requests模块用于访问网络一、请求get请求requests.get(URL,params,headers...)不带参数import request requests.get('http://www.baidu.com') = requests.request('get','http://www.baidu.com')带参数, 参数传递在UR
转载 2023-10-23 10:01:16
63阅读
好,开始今天的文章。今天主要是来说一下怎么可视化来监控你的爬虫的状态。相信大家在跑爬虫的过程中,也会好奇自己养的爬虫一分钟可以爬多少页面,多大的数据量,当然查询的方式多种多样。今天我来讲一种可视化的方法。关于爬虫数据在mongodb里的版本我写了一个可以热更新配置的版本,即添加了新的爬虫配置以后,不用重启程序,即可获取刚刚添加的爬虫的状态数据。1.成品图这个是监控服务器网速的最后成果,显示的是下载
文章目录一、利用python定时截取电脑桌面,保存到指定目录二、将监控程序设置为开机自动启动1、新建start.bat文件,打开输入以下代码:2、将start.bat添加到任务计划三、附注过程中常见问题及解决办法1、在win10添加计划任务时失败,报错“占位程序接收到错误数据”2、计划任务添加成功,但是重启电脑后没有运行。在计划任务中,该一直是“任务尚未运行(0x41303)”的状态。3、aut
转载 2023-05-24 19:20:51
452阅读
1. 前言Python 提供了多个用来编写爬虫程序的库,除了前面已经介绍的 urllib 库之外,还有一个很重的 Requests 库,这个库的宗旨是“让 HTTP 服务于人类”。  Requests 是 Python 的第三方库,它的安装非常简便,如下所示:python -m pip install requestsRequests 库是在 urllib 的基础上开发而来,它使用 Py
转载 2023-08-08 11:55:55
113阅读
爬取古诗文网首页的所有诗文的名称网页的地址是:https://so.gushiwen.org/gushi/tangshi.aspx上面就是网页源码经过浏览器渲染之后的样子 在上面的页面,点击鼠标右键,点击查看网页源码或者View Page source,向下滑动就可以看到:我们就是要提取上面网页源码中的所有诗词的名称,下面看下面代码,有详细的代码解释用正则表达式提取文字from urllib im
转载 2024-05-14 17:05:00
53阅读
简要介绍一下要实现的功能。在特殊时期,领导要求监控全校主要网站有没有被篡改,手动浏览太二,python实现每分钟自动检测几百个网页是否有变化,如果有变化就推送一条消息到微信群里。主要方法:本来想着每分钟保存一个页面到本地,然后和一分钟前保存的页面做对比,这样效率低且浪费资源。上网查了发现可以通过md5加密算法把页面加密成一个32位的字符串,每次对比字符串是否一致即可。具体原理不再赘述,可以参考关于
# 如何使用 Python 实现批量请求网页 在互联网时代,自动化获取网页信息变得非常重要。利用 Python,我们可以通过编程实现批量请求多个网页,以获取需要的数据。本文将指导你如何完成这个任务,适合初学者。 ## 整体流程 为了实现批量请求网页,我们需要经过如下步骤: | 步骤编号 | 步骤 | 说明
原创 2024-09-22 06:14:31
204阅读
今天主要是来说一下怎么可视化来监控你的爬虫的状态。相信大家在跑爬虫的过程中,也会好奇自己养的爬虫一分钟可以爬多少页面,多大的数据量,当然查询的方式多种多样。今天我来讲一种可视化的方法。关于爬虫数据在mongodb里的版本我写了一个可以热更新配置的版本,即添加了新的爬虫配置以后,不用重启程序,即可获取刚刚添加的爬虫的状态数据。1.成品图这个是监控服务器网速的最后成果,显示的是下载与上传的网速,单位为
python写的一个监控系统进程网络流量的程序,python2.7版本。 代码如下:import socket import struct import thread import threading import time import os net_data = {} d_net_info = {} lock = threading.Lock() def print_data(): while
# 使用Python请求JSON网页的方法 在Web开发中,经常需要通过HTTP请求获取JSON格式的数据。Python作为一门优秀的编程语言,提供了丰富的库和工具来进行网络请求和数据处理。本文将介绍如何使用Python请求JSON网页,并对获取的JSON数据进行处理。 ## 请求JSON网页 使用Python请求JSON网页可以通过`requests`库来实现。`requests`是一个简
原创 2024-05-09 05:44:56
41阅读
# Python大量请求网页的实践与技巧 在当今信息爆炸的时代,网页数据成为人们获取知识和洞察的重要渠道。为了高效地从网页上收集数据,很多开发者选择使用Python进行大量请求网页。本文将介绍如何使用Python来高效地请求网页,同时提供一些代码示例与注意事项。 ## 使用Requests库 Python中最常用的请求库是`requests`。这个库简单易用,可以轻松实现GET和POST请求
原创 11月前
88阅读
好,开始今天的文章。今天主要是来说一下怎么可视化来监控你的爬虫的状态。相信大家在跑爬虫的过程中,也会好奇自己养的爬虫一分钟可以爬多少页面,多大的数据量,当然查询的方式多种多样。今天我来讲一种可视化的方法。关于爬虫数据在mongodb里的版本我写了一个可以热更新配置的版本,即添加了新的爬虫配置以后,不用重启程序,即可获取刚刚添加的爬虫的状态数据。1.成品图这个是监控服务器网速的***成果,显示的是下
一、效果图:二、需求说明:最近需要对节点到源站、办公环境访问业务平台网站质量和办公网络线路质量的监控,简单的ping可以检测到一些东西,但是http请求的检查也要进行,于是就研究了下pycurl。PycURl是一个C语言写的libcurl的python绑定库。libcurl 是一个自由的,并且容易使用的用在客户端的 URL 传输库。它的功能很强大,PycURL 是一个非常快速(参考多并发操作)和丰
前言本文主要介绍了笔者利用一个简单的Python脚本实现漏洞情报的监控以及自动通报的相关经验。一、背景笔者所在公司某一个业务系统用到了漏洞频发的Struts2框架,S2-045爆发的时候刚好是刚进公司不久,还没有落实好漏洞通报排查工作,因此该业务系统的服务器就因为这个漏洞沦陷了,后续又接连出了好几个RCE漏洞,好在及时发布了预警和响应排查,没有受到影响。鉴于S2的漏洞频繁爆发,且动不动就是RCE,
python-自动化运维、办公、爬虫和娱乐作为一个会一些基本的办公自动化技术的老人,我想告诉大家一件最重要的事情: 你可以学办公自动化,可以学vba,Python,JavaScript,学各种东西都行,但千万记住一点:不要暴露自己的实力。 不要暴露自己的实力。不要暴露自己的实力! 你可以一次合并2000个表格,但不要告诉别人这是你半个小时之内完成的。 要表现出自己是忙了一天才干完这几个项目的样子。
前言Python由于其第三方库扩展多、接口简洁、处理网页方便等原因被广泛应用于爬虫的编写。网络爬虫的第一步即是要能够实现代码的自动登录,登录后使用获得的cookies来访问页面。本文使用Python2.7.13+Requests来实现简单网页的登录(不含验证码)。获取需要提交的变量自动登录的基本原理是模拟人工填入账号密码,并向服务器进行提交,获取服务器的应答(以cookies的形式)。因此第一步我
一 介绍Requests",Requests 继承了urllib2的所有特性。Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码。换句话说就是requests模块的功能比urllib更加强大!  Requests可以模拟浏览器的请求,比起之前用到的urllib模块更加便捷,因为req
转载 2023-10-05 14:41:54
1494阅读
起因:        自己的MC服务器需要一个监控告警的小脚本优化:        以后优化一下,用阿里云服务进行部署代码实现:# !/usr/bin/python3 # -*- coding=utf-8 -*- # @Author : 世界 # @file: PortMoni
  • 1
  • 2
  • 3
  • 4
  • 5