51CTO博客开发
import datetime import time s=datetime.datetime(2009,3,20,10,15,55) time=time.mktime(s.timetuple()) print time 别外付一个python对时间的一些函数,很好用的 我们先导入必须用到的一个module >>> import time 设置一个时间
#编码格式要求为utf-8 #coding=UTF-8 #urllib解析网站内容 import urllib2 #soup是特别好使的html解析器 from BeautifulSoup import * #开站,读内容 c=urllib2.urlopen('http://xxxxxx.html') soup=BeautifulSoup(c.read(
本文是通过Python的 re 模块来使用正则表达式的一个入门教程,和库参考手册的对应章节相比,更为浅显易懂、循序渐进。 本文可以从 http://www.amk.ca/python/howto 捕获 目录 目录 [隐藏] 1 简介 2 简单模式 2.1 字符匹配 2.2 重复 3 使用正则表达式 3.1 编译正则
Python正则表达式的用法 字符串替换 1.替换所有匹配的子串 用newstring替换subject中所有与正则表达式regex匹配的子串 result, number = re.subn(regex, newstring, subject) 2.替换所有匹配的子串(使用正则表达式对象) reobj = re.compile(
Beautiful Soup Site CN: http://www.crummy.com/software/BeautifulSoup/documentation.zh.html EN: http://www.crummy.com/software/BeautifulSoup/ Mechanize: http://wwwsearch.sourc
使用基本的 Python 模块,可以 编写脚本来与 Web 站点交互,但是如果没有必要的话,那么您就不希望这样做。Python 2.x 中的模块 urllib 和 urllib2,以及 Python 3.0 中的统一的 urllib.* 子包,可以在 URL 的末尾获取资源。然而,当您希望与 Web 页面中找到的内容进行某种比
用python爬虫抓站的一些技巧总结 zz 学用python也有3个多月了,用得最多的还是各类爬虫脚本:写过抓代理本机验证的脚本,写过在discuz论坛中自动登录自动发贴的脚本,写过自动收邮件的脚本,写过简单的验证码识别的脚本,本来想写google music的抓取脚本的,结果有了强大的gmbox,也就不用写了。 这些脚本有一个共性,都是和web相关的,总要
使用python+BeautifulSoup完成爬虫抓取特定数据的工作,并使用Django搭建一个管理平台,用来协调抓取工作。 因为自己很喜欢Django admin后台,所以这次用这个后台对抓取到的链接进行管理,使我的爬虫可以应对各种后期的需求。比如分时段抓取,定期的对已经抓取的地址重新抓取。数据库是用python自带的sqlite3,所以很方便。 这几天正好在做
要注意以下几点: 1、 浮动元素会被自动设置成块级元素,相当于给元素设置了display:block(块级元素能设置宽和高,而行内元素则不可以)。 2、 浮动元素后边的非浮动元素显示问题。 3、 多个浮动方向一致的元素使用流式排列,此时要注意浮动元素的高度。 4、子元素全为浮动元素的元素高度自适应问题。 以下详细
经过一天的研究python,写了一则例子出来,顺便经验总结一下 google招聘的时候有一则就是python程序员,使用后发现作为脚本的语言虽然有些地方跟传统的c,java相悖,但是仍然有很强大的功能,各种样式的库支持。我自己的理解就是作为批处理使用 先贴个例子: #encoding=utf-8 //用来显示中文 #t
应为工作的原因有所接触python,学习过程中找了点有用的东东,分享一下 使用xlrd包,它可以运行在所有的平台上。 Windows下载链接: http://download.csdn.net/detail/qianminming/2026756#comment 这意味着你可以在Linux系统上用Python读取Excel文件! 使用示例: &
在数据库中,UNION和UNION ALL关键字都是将两个结果集合并为一个,但这两者从使用和效率上来说都有所不同。 MySQL中的UNION UNION在进行表链接后会筛选掉重复的记录,所以在表链接后会对所产生的结果集进行排序运算,删除重复的记录再返回结果。实际大部分应用中是不会产生重复的记录,最常见的是过程表与历史表UNION。如: select * from gc_dfys
总共写了两种方案,喜欢哪种用哪种! 第一种方案,这种方案是让放回底部的图片一直居于浏览器的右下角,不应主题的改变而改变。 这个是用PJBlog的时候写的,所以以PJBlog做的例子,当然肯定不局限于PJBlog。 这个返回顶部是用JQuery实现的,PJBlog3没有使用什么JQuery库。 下面的修改支持PJBlog的全动态,半静态,全静态。 第一步,下载: 解压下载的文件,将里
LNMP 源代码安装攻略 CentOS 5.6下安装PHP5.3.8,nginx 1.0.11, Mysql 5.5 Install Mysql 5.5 1) 删除已安装的mysql yum remove mysql yum remove php 2) 安装依赖包 yum install gcc gcc-c++ ncurses-deve
在SSH Secure Shell Client生成key settings->User Authentication->keys->Generate New...->下一步->RSA->下一步->File:authorized_keys->下一步完成 生成密匙后需要upload至ssh文件目录下 命
自己研究的是jquery下的autocomplete 先推几个网站 1.jQuery UI: http://jqueryui.com/ 2.jQuery plugin: http://bassistance.de/jquery-plugins/jquery-plugin-autocomplete/ 3.1300grams 的篇博文: http://
HTTPSQS 具有以下特征: ● 非常简单,基于 HTTP GET/POST 协议。PHP、Java、Perl、Shell、Python、Ruby等支持HTTP协议的编程语言均可调用。 ● 非常快速,入队列、出队列速度超过10000次/秒。 ● 高并发,支持上万的并发连接,C10K不成问题。 ● 支持多队列。 ● 单个队列支持的最大队列数量高达10亿条。 ● 低内存消耗,
getp_w_picpathsize -- Get the size of an p_w_picpath Description array getp_w_picpathsize ( string filename [, array &p_w_picpathinfo] ) The getp_w_picpathsiz
Facebook无疑是现在世界上最大的PHP站点,关于Facebook的技术架构可以在网上搜索到很多资料,今天我们来了解另外一个百万级PHP站点的网站架构:Poppen.de。 Poppen.de是德国的一家交友/ 聊天/ 视频 的SNS网站,对于该网站的统计数字有:1)200万的用户数,2)2万的并发用户数,3)每天产生30万的私信,4)25万的日登录用户数。这样的网站也就是个中型规模的网站,
Tokyo Cabinet 是日本人 平林干雄 开发的一款 DBM 数据库,该数据库读写非常快,哈希模式写入100万条数据只需0.643秒,读取100万条数据只需0.773秒,是 Berkeley DB 等 DBM 的几倍。 Tokyo Tyrant 是由同一作者开发的 Tokyo Cabinet 数据库网络接口。它拥有Memcached兼容协议,也可以通过HTTP协议进行数据交换。
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号