配置filter table firewalld

查看本机关于IPTABLES的设置情况

[root@tp ~]# iptables -L -n

如果你在安装linux时没有选择启动防火墙,什么规则都没有.

清除原有规则.

不管你在安装linux时是否启动了防火墙,如果你想配置属于自己的防火墙,那就清除现在filter的所有规则.

[root@tp ~]# iptables -F        清除预设表filter中的所有规则链的规则[root@tp ~]# iptables -X        清除预设表filter中使用者自定链中的规则

保存

[root@tp ~]# /etc/rc.d/init.d/iptables save

这样就可以写到/etc/sysconfig/iptables文件里了.写入后记得把防火墙重起一下,才能起作用.

[root@tp ~]# service iptables restart

现在IPTABLES配置表里什么配置都没有了,那我们开始我们的配置吧

设定预设规则

[root@tp ~]# iptables -p INPUT DROP
[root@tp ~]# iptables -p OUTPUT ACCEPT
[root@tp ~]# iptables -p FORWARD DROP


上面的意思是,当超出了IPTABLES里filter表里的两个链规则(INPUT,FORWARD)时,不在这两个规则里的数据包怎么处理呢,那就是DROP(放弃).应该说这样配置是很安全的.我们要控制流入数据包

而对于OUTPUT链,也就是流出的包我们不用做太多限制,而是采取ACCEPT,也就是说,不在着个规则里的包怎么办呢,那就是通过.

可以看出INPUT,FORWARD两个链采用的是允许什么包通过,而OUTPUT链采用的是不允许什么包通过.

这样设置还是挺合理的,当然你也可以三个链都DROP,但这样做我认为是没有必要的,而且要写的规则就会增加.但如果你只想要有限的几个规则是,如只做WEB服务器.还是推荐三个链都是DROP.

注:如果你是远程SSH登陆的话,当你输入第一个命令回车的时候就应该掉了.因为你没有设置任何规则.

怎么办,去本机操作呗!

添加规则.

首先添加INPUT链,INPUT链的默认规则是DROP,所以我们就写需要ACCETP(通过)的链

为了能采用远程SSH登陆,我们要开启22端口.

[root@tp ~]# iptables -A INPUT -p tcp --dport 22 -j ACCEPT
[root@tp ~]# iptables -A OUTPUT -p tcp --sport 22 -j ACCEPT


 (注:这个规则,如果你把OUTPUT 设置成DROP的就要写上这一部,好多人都是望了写这一部规则导致,始终无法SSH.在远程一下,是不是好了.


其他的端口也一样,如果开启了web服务器,OUTPUT设置成DROP的话,同样也要添加一条链:

[root@tp ~]# iptables -A OUTPUT -p tcp --sport 80 -j ACCEPT ,其他同理.)

如果做了WEB服务器,开启80端口.

[root@tp ~]# iptables -A INPUT -p tcp --dport 80 -j ACCEPT

上面主要写的都是INPUT链,凡是不在上面的规则里的,都DROP

允许icmp包通过,也就是允许ping,

[root@tp ~]# iptables -A OUTPUT -p icmp -j ACCEPT (OUTPUT设置成DROP的话)
[root@tp ~]# iptables -A INPUT -p icmp -j ACCEPT    (INPUT设置成DROP的话)


允许loopback!(不然会导致DNS无法正常关闭等问题)

IPTABLES -A INPUT -i lo -p all -j ACCEPT (如果是INPUT DROP)IPTABLES -A OUTPUT -o lo -p all -j ACCEPT(如果是OUTPUT DROP)

下面写OUTPUT链,OUTPUT链默认规则是ACCEPT,所以我们就写需要DROP(放弃)的链.

减少不安全的端口连接

[root@tp ~]# iptables -A OUTPUT -p tcp --sport 31337 -j DROP
[root@tp ~]# iptables -A OUTPUT -p tcp --dport 31337 -j DROP




当然出入更安全的考虑你也可以包OUTPUT链设置成DROP,那你添加的规则就多一些,就像

下面写一下更加细致的规则,就是限制到某台机器

如:我们只允许192.168.0.3的机器进行SSH连接

[root@tp ~]# iptables -A INPUT -s 192.168.0.3 -p tcp --dport 22 -j ACCEPT

如果要允许,或限制一段IP地址可用 192.168.0.0/24 表示192.168.0.1-255端的所有IP.

24表示子网掩码数.但要记得把 /etc/sysconfig/iptables 里的这一行删了.

-A INPUT -p tcp -m tcp --dport 22 -j ACCEPT 因为它表示所有地址都可以登陆.

或采用命令方式:

[root@tp ~]# iptables -D INPUT -p tcp --dport 22 -j ACCEPT


然后保存,我再说一边,反是采用命令的方式,只在当时生效,如果想要重起后也起作用,那就要保存.写入到/etc/sysconfig/iptables文件里.

[root@tp ~]# /etc/rc.d/init.d/iptables save


这样写 !192.168.0.3 表示除了192.168.0.3的ip地址

其他的规则连接也一样这么设置.

 

在下面就是FORWARD链,FORWARD链的默认规则是DROP,所以我们就写需要ACCETP(通过)的链,对正在转发链的监控.

开启转发功能,(在做NAT时,FORWARD默认规则是DROP时,必须做)

[root@tp ~]# iptables -A FORWARD -i eth0 -o eth1 -m state --state RELATED,ESTABLISHED -j ACCEPT
[root@tp ~]# iptables -A FORWARD -i eth1 -o eh0 -j ACCEPT
#丢弃坏的TCP包
[root@tp ~]#iptables -A FORWARD -p TCP ! --syn -m state --state NEW -j DROP#处理IP碎片数量,防止攻击,允许每秒100个
[root@tp ~]#iptables -A FORWARD -f -m limit --limit 100/s --limit-burst 100 -j ACCEPT
#设置ICMP包过滤,允许每秒1个包,限制触发条件是10个包.
[root@tp ~]#iptables -A FORWARD -p icmp -m limit --limit 1/s --limit-burst 10 -j ACCEPT
#我在前面只所以允许ICMP包通过,就是因为我在这里有限制.

爬虫分享

#coding=utf-8#!/usr/bin/python# 导入requests库import requests# 导入文件操作库import osimport bs4from bs4 import BeautifulSoupimport sysimport importlibimport randomimport timeimportlib.reload(sys)

# 越多越好meizi_headers = [    "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/35.0.1916.153 Safari/537.36",    "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:30.0) Gecko/20100101 Firefox/30.0",    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_2) AppleWebKit/537.75.14 (KHTML, like Gecko) Version/7.0.3 Safari/537.75.14",    "Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.2; Win64; x64; Trident/6.0)",    'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',    'Opera/9.25 (Windows NT 5.1; U; en)',    'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',    'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',    'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',    'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',    "Mozilla/5.0 (X11; Linux i686) AppleWebKit/535.7 (KHTML, like Gecko) Ubuntu/11.04 Chromium/16.0.912.77 Chrome/16.0.912.77 Safari/535.7",    "Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0",    'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36']# 给请求指定一个请求头来模拟chrome浏览器global headersheaders = {'User-Agent': random.choice(meizi_headers)}# 爬图地址mziTu = 'http://www.mzitu.com/'# 定义存储位置global save_pathsave_path = 'F:\BeautifulPictures'

# 创建文件夹def createFile(file_path):    if os.path.exists(file_path) is False:        os.makedirs(file_path)    # 切换路径至上面创建的文件夹    os.chdir(file_path)

# 下载文件def download(page_no, file_path):    global headers    res_sub = requests.get(page_no, headers=headers)    # 解析html    soup_sub = BeautifulSoup(res_sub.text, 'html.parser')    # 获取页面的栏目地址    all_a = soup_sub.find('div',class_='postlist').find_all('a',target='_blank')    count = 0    for a in all_a:        count = count + 1        if (count % 2) == 0:            headers = {'User-Agent': random.choice(meizi_headers)}            print("内页第几页:" + str(count))            # 提取href            href = a.attrs['href']            print("套图地址:" + href)            res_sub_1 = requests.get(href, headers=headers)            soup_sub_1 = BeautifulSoup(res_sub_1.text, 'html.parser')            # ------ 这里最好使用异常处理 ------            try:                # 获取套图的最大数量                pic_max = soup_sub_1.find('div', class_='pagenavi').find_all('span')[6].text                print("套图数量:" + pic_max)                for j in range(1, int(pic_max) + 1):                    # 单位为秒,1-3 随机数                    time.sleep(random.randint(1, 3))                    headers = {'User-Agent': random.choice(meizi_headers)}                    # print("子内页第几页:" + str(j))                    # j int类型需要转字符串                    href_sub = href + "/" + str(j)                    print("图片地址:"+href_sub)                    res_sub_2 = requests.get(href_sub, headers=headers)                    soup_sub_2 = BeautifulSoup(res_sub_2.text, "html.parser")                    img = soup_sub_2.find('div', class_='main-image').find('img')                    if isinstance(img, bs4.element.Tag):                        # 提取src                        url = img.attrs['src']                        array = url.split('/')                        file_name = array[len(array)-1]                        # 防盗链加入Referer                        headers = {'User-Agent': random.choice(meizi_headers), 'Referer': url}                        img = requests.get(url, headers=headers)                        print('开始保存图片', img)                        f = open(file_name, 'ab')                        f.write(img.content)                        print(file_name, '图片保存成功!')                        f.close()            except Exception as e:                print(e)

# 主方法def main():    res = requests.get(mziTu, headers=headers)    # 使用自带的html.parser解析    soup = BeautifulSoup(res.text, 'html.parser')    # 创建文件夹    createFile(save_path)    # 获取首页总页数    img_max = soup.find('div', class_='nav-links').find_all('a')[3].text    # print("总页数:"+img_max)    for i in range(1, int(img_max) + 1):        # 获取每页的URL地址        if i == 1:            page = mziTu        else:            page = mziTu + 'page/' + str(i)        file = save_path + '\\' + str(i)        createFile(file)        # 下载每页的图片        print("套图页码:" + page)        download(page, file)

if __name__ == '__main__':    main()


配置NAT table firewalld

1,查看本机关于NAT的设置情况

[root@tp rc.d]# iptables -t nat -LChain PREROUTING (policy ACCEPT)target       prot opt source                 destination         Chain POSTROUTING (policy ACCEPT)target       prot opt source                 destination         SNAT         all    --    192.168.0.0/24         anywhere              to:211.101.46.235Chain OUTPUT (policy ACCEPT)target       prot opt source                 destination


    

我的NAT已经配置好了的(只是提供最简单的代理上网功能,还没有添加防火墙规则).关于怎么配置NAT,参考我的另一篇文章

当然你如果还没有配置NAT的话,你也不用清除规则,因为NAT在默认情况下是什么都没有的

如果你想清除,命令是


 

[root@tp ~]# iptables -F -t nat
[root@tp ~]# iptables -X -t nat
[root@tp ~]# iptables -Z -t nat

2,添加规则

添加基本的NAT地址转换,(关于如何配置NAT可以看我的另一篇文章),

添加规则,我们只添加DROP链.因为默认链全是ACCEPT.

防止外网用内网IP欺骗

[root@tp sysconfig]# iptables -t nat -A PREROUTING -i eth0 -s 10.0.0.0/8 -j DROP[root@tp sysconfig]# iptables -t nat -A PREROUTING -i eth0 -s 172.16.0.0/12 -j DROP[root@tp sysconfig]# iptables -t nat -A PREROUTING -i eth0 -s 192.168.0.0/16 -j DROP



如果我们想,比如阻止MSN,QQ,BT等的话,需要找到它们所用的端口或者IP,(个人认为没有太大必要)

例:

禁止与211.101.46.253的所有连接
[root@tp ~]# iptables -t nat -A PREROUTING    -d 211.101.46.253 -j DROP
禁用FTP(21)端口
[root@tp ~]# iptables -t nat -A PREROUTING -p tcp --dport 21 -j DROP
这样写范围太大了,我们可以更精确的定义.
[root@tp ~]# iptables -t nat -A PREROUTING    -p tcp --dport 21 -d 211.101.46.253 -j DROP
这样只禁用211.101.46.253地址的FTP连接,其他连接还可以.如web(80端口)连接.




按照我写的,你只要找到QQ,MSN等其他软件的IP地址,和端口,以及基于什么协议,只要照着写就行了.

最后:

drop非法连接[root@tp ~]# iptables -A INPUT     -m state --state INVALID -j DROP[root@tp ~]# iptables -A OUTPUT    -m state --state INVALID -j DROP[root@tp ~]# iptables-A FORWARD -m state --state INVALID -j DROP允许所有已经建立的和相关的连接[root@tp ~]# iptables-A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT[root@tp ~]# iptables-A OUTPUT -m state --state ESTABLISHED,RELATED -j ACCEPT
[root@tp ~]# /etc/rc.d/init.d/iptables save
这样就可以写到/etc/sysconfig/iptables文件里了.写入后记得把防火墙重起一下,才能起作用.
[root@tp ~]# service iptables restart