⑦ Docker 网络

7.1 理解Docker0

清空下前面的docker 镜像、容器

# 删除全部容器
[root@cVzhanshi tomcat-diy]# docker rm -f $(docker ps -aq)
# 删除全部镜像
[root@cVzhanshi tomcat-diy]# docker rmi -f $(docker images -aq)
  • 用ip addr查看Linux系统中的网卡

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker

三个网络

问题: docker 是如果处理容器网络访问的?

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_02

# 测试,运行一个tomcat
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 tomcat

# 查看容器内部网络地址,发现容器启动的时候会得到一个 eth0@if83 ip地址,docker分配
[root@cVzhanshi tomcat-diy]# docker exec -it 3e898fccd455 ip addr

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_tomcat_03

# 思考? linux能不能ping通容器内部! 可以 容器内部可以ping通外界吗? 都可以!
# Linux ping容器内部
[root@cVzhanshi tomcat-diy]# ping 172.17.0.2
PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.110 ms
64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.084 ms

# 容器内部 ping Linux系统外界
[root@3e898fccd455 local]# ping 172.17.0.1
PING 172.17.0.1 (172.17.0.1) 56(84) bytes of data.
64 bytes from 172.17.0.1: icmp_seq=1 ttl=64 time=0.103 ms
64 bytes from 172.17.0.1: icmp_seq=2 ttl=64 time=0.061 ms

原理:

  • 我们每启动一个docker容器,docker就会给docker容器分配一个ip,我们只要按照了docker,就会有一个docker0桥接模式,使用的技术是veth-pair技术!
    veth-pair技术:

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_04

  • 再启动一个容器测试,发现又多了一对网络

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_redis_05

# 我们发现这个容器带来网卡,都是一对对的
# veth-pair 就是一对的虚拟设备接口,他们都是成对出现的,一端连着协议,一端彼此相连
# 正因为有这个特性 veth-pair 充当一个桥梁,连接各种虚拟网络设备的
# OpenStac,Docker容器之间的连接,OVS的连接,都是使用evth-pair技术
  • 我们来测试下tomcat01和tomcat02是否可以ping通
# 查看网络docker exec -it 容器id ip addr
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat01 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
82: eth0@if83: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
       valid_lft forever preferred_lft forever
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
84: eth0@if85: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 172.17.0.3/16 brd 172.17.255.255 scope global eth0
       valid_lft forever preferred_lft forever

# 让tomcat02 ping tomcat01
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ping 172.17.0.2
PING 172.17.0.1 (172.17.0.1) 56(84) bytes of data.
64 bytes from 172.17.0.1: icmp_seq=1 ttl=64 time=0.108 ms
64 bytes from 172.17.0.1: icmp_seq=2 ttl=64 time=0.071 ms

# 让tomcat01ping tomcat02
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat01 ping 172.17.0.3
PING 172.17.0.3 (172.17.0.3) 56(84) bytes of data.
64 bytes from 172.17.0.3: icmp_seq=1 ttl=64 time=0.115 ms
64 bytes from 172.17.0.3: icmp_seq=2 ttl=64 time=0.133 ms

# 结论:容器和容器之间是可以互相ping通

为什么能容器之间能ping通呢,如图所示:

网络模型图

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_06

由图可知,容器之间的网络连接并不是直接连接的,而是通过docker0路由器转发或广播而连接的

结论:tomcat01和tomcat02公用一个路由器,docker0。

所有的容器不指定网络的情况下,都是docker0路由的,docker会给我们的容器分配一个默认的可用ip。

小结

Docker使用的是Linux的桥接,宿主机是一个Docker容器的网桥 docker0

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_07

Docker中所有网络接口都是虚拟的,虚拟的转发效率高(内网传递文件)

只要容器删除,对应的网桥一对就没了

7.2 --link

思考一个场景:我们编写了一个微服务,database url=ip: 项目不重启,数据ip换了,我们希望可以处理这个问题,可以通过名字来进行访问容器?类似于feign

[root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ping tomca01   # ping不通
ping: tomca01: Name or service not known

# 运行一个tomcat03 --link tomcat02 
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat03 --link tomcat02 diytomcat:1.0

# 3连接2
# 用tomcat03 ping tomcat02 可以ping通
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat03 ping tomcat02
PING tomcat02 (172.17.0.3) 56(84) bytes of data.
64 bytes from tomcat02 (172.17.0.3): icmp_seq=1 ttl=64 time=0.127 ms
64 bytes from tomcat02 (172.17.0.3): icmp_seq=2 ttl=64 time=0.077 ms

# 2连接3
# 用tomcat02 ping tomcat03 ping不通

探究

  • docker inspect tomcat03

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_redis_08

  • 查看tomcat03里面的/etc/hosts发现有tomcat02的配置

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_09

–-link 本质就是在hosts配置中添加映射

现在使用Docker已经不建议使用–link了!建议自定义网络,但是自定义网络不适用docker0

docker0问题:不支持容器名连接访问!

7.3 自定义网络

查看所有网络

[root@cVzhanshi tomcat-diy]# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
d7f95afc0d22   bridge    bridge    local
993e148ff2de   host      host      local
3b8e97a2184a   none      null      local

网络模式

bridge :桥接 docker(默认,自己创建也是用bridge模式)

none :不配置网络,一般不用

host :和所主机共享网络

container :容器网络连通(用得少!局限很大)

测试

# 我们直接启动的命令 --net bridge,而这个就是我们得docker0
# bridge就是docker0
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 tomcat
等价于 => docker run -d -P --name tomcat01 --net bridge tomcat

# docker0,特点:默认,域名不能访问。 --link可以打通连接,但是很麻烦!
# 我们可以 自定义一个网络
[root@cVzhanshi tomcat-diy]# docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_10


[root@cVzhanshi tomcat-diy]# docker network inspect mynet

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_11

启动两个tomcat,使用自定义的网络,查看网络情况

# 启动tomcat
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat-net-01 --net mynet diytomcat:1.0
189bf7ca938eefab20c08ec4872bfd44b70f38a3b9224c07fce1a98d7304bafc
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat-net-02 --net mynet diytomcat:1.0
1c5697ad8f7bfcd322ff03d1f6d7fb73d4097691df1c26945a9dbf930f8aa4e3

# 查看网络情况
[root@cVzhanshi tomcat-diy]# docker network inspect mynet

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_12

在自定义的网络下,服务可以通过服务名互相ping通,不用使用–-link

# tomcat01 ping tomcat02
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-02 ping tomcat-net-01
PING tomcat-net-01 (192.168.0.2) 56(84) bytes of data.
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=1 ttl=64 time=0.103 ms
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=2 ttl=64 time=0.116 ms

# tomcat02 ping tomcat01
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat-net-02
PING tomcat-net-02 (192.168.0.3) 56(84) bytes of data.
64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=1 ttl=64 time=0.072 ms
64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=2 ttl=64 time=0.076 ms

我们自定义的网络docker帮我们维护好了对应的关系,推荐我们平时这样使用网络!

好处:

redis -不同的集群使用不同的网络,保证集群是安全和健康的

mysql-不同的集群使用不同的网络,保证集群是安全和健康的

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_13

7.4 网络连通

如果一个网络上的容器要ping通另一个网络上的容器,就需要网络连通,但是不是打通两个网络之间,而是连通容器和网络之间的网络

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_14


docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_tomcat_15


docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_redis_16

# 测试两个不同的网络连通  再启动两个tomcat 使用默认网络,即docker0
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 diytomcat:1.0
757cdade627fe71328b40d2aab8a41b22e70f16021d3ee28dbc2ea239e09b2b2
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat02 diytomcat:1.0
b0252a99a7f08eedd4f6b2117e77669d522a77479de3a6c6b6b404ea23ea6d7b

# 此时ping不通
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat01
ping: tomcat01: Name or service not known
# 要将tomcat01 连通 tomcat—net-01 ,连通就是将 tomcat01加到 mynet网络
# 一个容器两个ip(tomcat01) 类似于阿里云服务器的公网ip和内网ip	
[root@cVzhanshi tomcat-diy]# docker network connect mynet tomcat01
# 查看网络情况

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_tomcat_17

# 再次尝试去ping 发现能ping通了
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat01
PING tomcat01 (192.168.0.4) 56(84) bytes of data.
64 bytes from tomcat01.mynet (192.168.0.4): icmp_seq=1 ttl=64 time=0.101 ms
64 bytes from tomcat01.mynet (192.168.0.4): icmp_seq=2 ttl=64 time=0.065 ms

结论:假设要跨网络操作别人,就需要使用docker network connect 连通

7.5 实战:部署Redis集群

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_18

  • 先创建一个redis的网卡
# 创建网卡
docker network create redis --subnet 172.38.0.0/16
  • 通过脚本创建redis的配置文件
# 通过脚本创建六个redis配置
for port in $(seq 1 6);\
do \
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat << EOF >> /mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done
  • 启动6个redis
# 启动一个  修改参数同理启动六个
docker run -p 6371:6379 -p 16671:16379 --name redis-1 \
-v /mydata/redis/node-1/data:/data \
-v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.11 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf

docker run -p 6376:6379 -p 16676:16379 --name redis-6 \
-v /mydata/redis/node-6/data:/data \
-v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \
-d --net redis --ip 172.38.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf
  • 创建集群
# 随便进入一个redis
docker exec -it redis-1 /bin/sh #redis默认没有bash
# 创建集群
redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379  --cluster-replicas 1
# 创建集群 及其输出过程
/data # redis-cli --cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379  --cluster-replicas 1
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 172.38.0.15:6379 to 172.38.0.11:6379
Adding replica 172.38.0.16:6379 to 172.38.0.12:6379
Adding replica 172.38.0.14:6379 to 172.38.0.13:6379
M: 9dfb0daeca49628851f35a9a7527857dd452fa2c 172.38.0.11:6379
   slots:[0-5460] (5461 slots) master
M: 3152978e1eee048ceec89915fbb7bee5130ca1e0 172.38.0.12:6379
   slots:[5461-10922] (5462 slots) master
M: f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b 172.38.0.13:6379
   slots:[10923-16383] (5461 slots) master
S: feaaee5850ddbcf915d98b5307d5b0e977210839 172.38.0.14:6379
   replicates f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b
S: ebfbde07030fc1a04abc384440092b9f0153ef82 172.38.0.15:6379
   replicates 9dfb0daeca49628851f35a9a7527857dd452fa2c
S: fc54f559506207694fd4551cb425714a65c5ddf2 172.38.0.16:6379
   replicates 3152978e1eee048ceec89915fbb7bee5130ca1e0
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
...
>>> Performing Cluster Check (using node 172.38.0.11:6379)
M: 9dfb0daeca49628851f35a9a7527857dd452fa2c 172.38.0.11:6379
   slots:[0-5460] (5461 slots) master
   1 additional replica(s)
S: ebfbde07030fc1a04abc384440092b9f0153ef82 172.38.0.15:6379
   slots: (0 slots) slave
   replicates 9dfb0daeca49628851f35a9a7527857dd452fa2c
M: f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b 172.38.0.13:6379
   slots:[10923-16383] (5461 slots) master
   1 additional replica(s)
S: feaaee5850ddbcf915d98b5307d5b0e977210839 172.38.0.14:6379
   slots: (0 slots) slave
   replicates f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b
M: 3152978e1eee048ceec89915fbb7bee5130ca1e0 172.38.0.12:6379
   slots:[5461-10922] (5462 slots) master
   1 additional replica(s)
S: fc54f559506207694fd4551cb425714a65c5ddf2 172.38.0.16:6379
   slots: (0 slots) slave
   replicates 3152978e1eee048ceec89915fbb7bee5130ca1e0
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
/data # redis-cli -c

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_19

测试高可用:set一个值,处理的主机down掉,在查询值,看看是否存在。按理说从机会选举成主机

127.0.0.1:6379> set a c
-> Redirected to slot [15495] located at 172.38.0.13:6379
OK
# 由此可见redis-3处理了这个命令 down掉redis-3
[root@cVzhanshi ~]# docker stop 1ce5a25cc688

# 继续查询key为a的值
172.38.0.13:6379> get a 
Error: Operation timed out  # 发现redis-3 down了
/data # redis-cli -c
127.0.0.1:6379> get a
-> Redirected to slot [15495] located at 172.38.0.14:6379  # redis-4选举成为主机,处理命令
"c"

# 查看集群详情

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_20

集群搭建完毕

⑧ Spring Boot微服务打包Docker镜像

1、构建SpringBoot项目

2、打包运行

3、编写dockerfile

FROM java:8
COPY *.jar /app.jar
CMD ["--server.port=8080"]
EXPOSE 8080
ENTRYPOINT ["java","-jar","app.jar"]

4、构建镜像

# 1.复制jar和DockerFIle到服务器
# 2.构建镜像
[root@cVzhanshi idea]# docker build -t cvzhanhsi-springboot-web:1.9 .

5、发布运行

# 运行
[root@cVzhanshi idea]# docker run -d -P --name cvzhanshi-springboot-web cvzhanhsi-springboot-web:1.9
39cb47d71dc532d29c02e107e35560d0bada036e95e6cc9a5781357d1db51dae
# 访问
[root@cVzhanshi idea]# curl localhost:49163
{"timestamp":"2021-09-07T06:57:10.455+00:00","status":404,"error":"Not Found","path":"/"}
[root@cVzhanshi idea]# curl localhost:49163/hello
hello cvzhanshi

外网访问

docker打包上本地环境之后vue为啥没有连接上docker包装的后端flask交互 docker打包部署微服务_docker_21