对于网页,除了传统的css框架以外,额外可以尝试的一个css框架是semantic ui,我们可以根据这个框架结合html写一些简单的静态网页,有如下步骤

1.使用基础样式

2.使用“形容词”改变样式

3.使用嵌套制作网页片段

而对于css样式的调用,在

这个标签内使用来调用,其中href的值为css的样式路径,一定要加载正确


关于基础样式

先来看下面这段代码

这是一个基础的样式,我们可以利用segment把一个网页分为header、body(content)、footer。每一个segment都可以看作是一个片段。

关于“形容词”改变样式

先来看下面这段代码

来看几个常用的形容词,inverted(翻转,一般后面跟颜色)、vertical(圆角消失、阴影消失、消除段落间隙)、(very)padded(内聚,限制文字与边框有一定距离)、container(收紧、内敛聚中),另外像big、tiny等形容词也可以使用

说到这,有必要提供一个semantic ui的中文网站,Semanti UI,当然也可以使用英文咯

关于嵌套

在基本样式里面定义了segment片段,我们可以在segment内再进行定义segment或者其他来制作片段的“卡片”,来3段代码



![](images/banner.jpg)



片段内插入图片



First blog

古有为中华之崛起而读书,今有为了出去浪而coding

Read more



片段内插入另一个segment形成卡片,插入

First blog

形成段落内一级标题,当然还有二级三级...,插入



QQ截图20170321154609.png

关于HTTP状态码

HTTP状态码:

200系列:200、201.....代表成功

300系列:304.......代表没有修改

400系列:404.......代表没找到

500系列:500、502.......代码服务不响应

HTTP的url匹配:

访问URL:http://localhsot:8000/detail/

- static/images/default.jpg -> http://localhsot:8000/detail/static/images/default.jpg

- /static/images/default.jpg -> http://localhsot:8000/static/images/default.jpg

爬虫的一点总结

1.请求链接

分析html拿到需要的数据

2.数据匹配和提取

插入数据

3.数据的整理--去重

处理网络Bug

4.提高爬虫效率--多线程问题

爬虫框架浅谈

Python开源的爬虫框架Scrapy是一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。

Scrapy主要包括了以下组件:

1.引擎(Scrapy)

用来处理整个系统的数据流处理, 触发事务(框架核心)

调度器(Scheduler)

用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

2.下载器(Downloader)

用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)

3.爬虫(Spiders)

爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面

4.项目管道(Pipeline)

负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。

5.下载器中间件(Downloader Middlewares)

位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。

6.爬虫中间件(Spider Middlewares)

介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。

7.调度中间件(Scheduler Middewares)

介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。

Scrapy运行流程大概如下:

1.引擎从调度器中取出一个链接(URL)用于接下来的抓取

2.引擎把URL封装成一个请求(Request)传给下载器

3.下载器把资源下载下来,并封装成应答包(Response)

4.爬虫解析Response

5.解析出实体(Item),则交给实体管道进行进一步的处理

6.解析出的是链接(URL),则把URL交给调度器等待抓取