重复性任务总是耗时且无聊,想一想你想要一张一张地裁剪 100 张照片或 Fetch API、纠正拼写和语法等工作,所有这些任务都很耗时,为什么不自动化它们呢?在今天的文章中,我将与你分享 10 个 Python 自动化脚本。所以,请你把这篇文章放在你的收藏清单上,以备不时之需,在IT行业里,程序员的学习永无止境……现在,让我们开始吧。01、 图片优化器使用这个很棒的自动化脚本,可以帮助把图像处理的
转载 2023-06-26 09:04:02
580阅读
   首先申明,我并没有使用此脚本来恶意领取无忧币,不要封我账号啊,呵呵,我记得以前在oschina上找到过一个可以领取无忧币的脚本,但是据说已经失恋了,最近看了点关于selenium的书,这个玩意是做web测试方面,据说很流弊,于是巴拉巴拉看了点,然后试着写了个脚本,看看能不能自动领取无忧币呢,呵呵,本人在此表明,次脚本只是学习使用,大家万勿恶意领取无忧币哦:下面看看脚本吧,
原创 2014-11-14 18:15:25
1877阅读
3点赞
3评论
前程无忧的CEO甄荣辉曾说过F1赛车行业里存在“渐进式的创新”:保持领先的同时不断进行改善
原创 2021-08-19 10:24:56
452阅读
毕业设计第一弹“前程无忧”招聘数据爬虫操作系统: Win 10爬取工具: Jupyter Notebook (Anaconda)存储路径: 电脑D盘,csv格式文件名: 招聘.csv语言: python 3.8需求: 分析数据分析岗位的招聘情况,包括地区分布、薪资水平、职位要求等,了解最新数据分析岗位的情况1、导入爬虫所需要的requests、csv模块# 1、发送请求,对于找到分析得到的url地
爬取方法选择直接爬取:import requests url = 'https://sou.zhaopin.com/?jl=530&kw=Java%E5%BC%80%E5%8F%91&kt=3' #将爬虫伪装成浏览器请求网页数据 headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebK
转载 2023-08-02 19:33:02
139阅读
无忧转过来的数组的扩展Array.prototype.del = function(n){ if (n<0) return this; return this.slice(0,n).concat(this.slice(n+1,this.length));}// 数组洗牌Array.prototype.random = function(){ var nr=[], me=this, t; w...
转载 2010-10-27 16:47:00
28阅读
2评论
//获取字符数组String.prototype.ToCharArray=function(){ return this.split("");}//获取N个相同的字符串String.prototype.Repeat=function(num){ var tmpArr=[]; for(var i=0;i<num;i++) tmpArr.push(this); return tmpArr.jo...
转载 2010-10-27 16:46:00
101阅读
2评论
# 前程无忧Python爬虫:简单入门指南 在数据驱动的时代,网络爬虫技术成为了许多职业如数据分析师、市场研究员和程序员的重要工具。爬虫可以帮助我们从网站上提取数据,进行分析和研究。本文将以“前程无忧”这个招聘网站为例,介绍如何使用Python编写一个简单的爬虫。 ## 什么是网络爬虫? 网络爬虫,通常被称为网络蜘蛛,是一种自动访问互联网并提取信息的程序。在Python中,爬虫通常使用库如
原创 10月前
256阅读
网站发布或自己上传程序后,网站打不开的原因有哪些?网站打不开原因大体有这几种:服务器问题,域名绑定问题,服务器没有绑定上域名,国内主机未备案问题,空间默认首页问题、程序不支持、数据库问题等问题。不同原因有不同的提示我们应就提示而具体来分析:1、Bad Request (Invalid Hostname)什么意思?一般来说与你电脑无关 错误请求(无效主机名) 域名已绑定主机 但主机未绑定域名就会出现
         自己捣鼓了几天写的代码,基本上把51job的岗位相关的数据都爬下来了,可以视要求自行增减,代码虽然有些简陋,不过我爬取的时候没报什么错。代码适合初学者学习使用,废话不多说,代码如下:from selenium.webdriver.support import expected_conditions as EC from selen
转载 2024-02-13 20:13:55
287阅读
数据分析之前程无忧(一)这个是我们要爬取的网站:前程无忧前程无忧的网站是一个动态网站来的,单纯去抓取是无法抓取的,所以我们得找到他的接口,打开网站按f12选择network选项卡显然这个就是我们需要的找到的接口了根据他给出来的URL接口https://search.51job.com/list/000000,000000,0000,00,9,99,%25E5%25AF%25BC%25E6%25B8
转载 2024-01-30 11:41:05
95阅读
秋招这个时候已经开始了,正所谓知己知彼方能百战不殆,今天就从招聘网站下手分析一波机械的就业前景。 这次获取数据的网站是前程无忧,之所以选择前程无忧,是因为数据获取没有什么难度,再者前程无忧提供的岗位信息比智联招聘,拉勾提供的数据都多。 看了一下,前程无忧提供了 2000页/50条 数据,考虑到数据可能有些重复,这里获取 48569 条数据。数据获取用到的爬虫框架是 scrapy 解析库 xpa
转载 2024-08-14 11:54:19
638阅读
1点赞
过了试用期,使用密法   @echo off set nowdate=%date% date 2011-08-23 start "" "d:/ext/tt.exe" ping -n 5 127.0.0.1&gt;nul
原创 2012-05-28 09:14:35
690阅读
1点赞
1评论
获取原始数据最近在学习Python,做了一个爬虫程序练练手,前程无忧这个网站页面布局还是挺简单的,适合我这种新手。使用requests+bs4爬取 不多说了,先来看看页面布局吧。 这是前程无忧上的职位列表,看上去还是很清楚的然后再来看看页面布局,使用Google浏览器打开前程无忧网页,然后按下F12 每一个class为el的div就代表一个招聘信息然后再来看看div里面是怎么布局的,我们需要获取第
一.爬取前程无忧网爬取字段:岗位名称,薪资水平,招聘单位,工作地点,工作经验,学历要求编写items.pyimport scrapy class Qcwy01Item(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() name = scrapy.Field()
        论坛上随变载了点东西,可怜哦没了无忧币。告诉自己以后下资料一定要看清楚的下而且要下有意义的。
原创 2009-03-07 20:25:51
609阅读
3评论
好像随便发几个回帖就会有一个无忧币,后来又没了,所以以后下载东西,先回个贴,在赶紧下载资料,(*^__^*) 嘻嘻……
原创 2009-05-10 13:25:00
987阅读
1点赞
2评论
         昨日看到好多人的无忧币都好多,等级也都很高,于是决定我要赚点无忧币才好,结果在悬赏贴中发了信息,结果今天我幸运的得到了2个无忧币。感觉真好,我用自己的技术转到了第一桶金,2个无忧币,O(∩_∩)O哈哈~。 尽管无忧币并不能跟钱相提并论,但是我还是很开心,以后我就可以去多找一些无忧币回来,O(∩_∩)
原创 2010-06-01 15:02:29
722阅读
# 前程无忧数据爬取与分析 在数据驱动的时代,数据爬取成为一个越来越重要的技能。许多行业依靠数据分析来做决策,而招聘市场更是少不了大量数据的收集与分析。本文将探讨如何使用Python爬取前程无忧网站上的数据,从而获取招聘信息,并通过数据处理和可视化分析结果。 ## 一、数据爬取概述 数据爬取是指通过程序自动获取网页上的数据。Python是一个非常适合进行数据爬取的编程语言,它有许多第三方库,
原创 10月前
167阅读
# Python 爬虫中的 SSL 验证与前程无忧 随着互联网信息的快速发展,爬虫技术应运而生。很多人希望高效地获取网络上的数据。尤其是在求职网站如前程无忧上,爬虫可以帮助用户自动获取职位信息。然而,许多网站都对爬虫行为采取了一定的防范措施,特别是 SSL 证书验证。本篇文章将探讨爬虫中的 SSL 验证及其在前程无忧网站上的应用,包括代码示例、流程图和序列图。 ## 什么是 SSL 验证?
原创 8月前
135阅读
  • 1
  • 2
  • 3
  • 4
  • 5