怎么从传统的Linux网络视角理解容器网络?《二》

作者阿里云代理 文章分类 分类:linux图文教程 阅读次数 已被围观 352

运用虚拟网络switch(网桥)衔接容器

容器化思维的驱动力是高效的资源共享。所以,一台机器上只运转一个容器并不常见。相反,最终方针是尽可能地在共享的环境上运转更多的阻隔进程。因而,假如按照上述veth方案,在同一台主机上放置多个容器的话会发生什么呢?让咱们尝试添加第二个容器。

# 从 root 命名空间  $ sudo ip netns add netns1  $ sudo ip link add veth1 type veth peer name ceth1  $ sudo ip link set ceth1 netns netns1  $ sudo ip link set veth1 up  $ sudo ip addr add 172.18.0.21/16 dev veth1  $ sudo nsenter --net=/var/run/netns/netns1  $ ip link set lo up  $ ip link set ceth1 up  $ ip addr add 172.18.0.20/16 dev ceth1

查看连通性:

# 从netns1无法连通root 命名空间!  $ ping -c 2 172.18.0.21  PING 172.18.0.21 (172.18.0.21) 56(84) bytes of data.  From 172.18.0.20 icmp_seq=1 Destination Host Unreachable  From 172.18.0.20 icmp_seq=2 Destination Host Unreachable  --- 172.18.0.21 ping statistics ---  2 packets transmitted, 0 received, +2 errors, 100% packet loss, time 55ms pipe 2  # 可是路由是存在的!  $ ip route  172.18.0.0/16 dev ceth1 proto kernel scope link src 172.18.0.20  # 离开 `netns1`  $ exit  # 从 root 命名空间无法连通`netns1`  $ ping -c 2 172.18.0.20  PING 172.18.0.20 (172.18.0.20) 56(84) bytes of data.  From 172.18.0.11 icmp_seq=1 Destination Host Unreachable  From 172.18.0.11 icmp_seq=2 Destination Host Unreachable  --- 172.18.0.20 ping statistics --- 2 packets transmitted, 0 received, +2 errors, 100% packet loss, time 23ms pipe 2  # 从netns0能够连通 `veth1`  $ sudo nsenter --net=/var/run/netns/netns0  $ ping -c 2 172.18.0.21  PING 172.18.0.21 (172.18.0.21) 56(84) bytes of data.  64 bytes from 172.18.0.21: icmp_seq=1 ttl=64 time=0.037 ms  64 bytes from 172.18.0.21: icmp_seq=2 ttl=64 time=0.046 ms  --- 172.18.0.21 ping statistics ---  2 packets transmitted, 2 received, 0% packet loss, time 33ms  rtt min/avg/max/mdev = 0.037/0.041/0.046/0.007 ms  # 可是仍然无法连通netns1  $ ping -c 2 172.18.0.20  PING 172.18.0.20 (172.18.0.20) 56(84) bytes of data.  From 172.18.0.10 icmp_seq=1 Destination Host Unreachable  From 172.18.0.10 icmp_seq=2 Destination Host Unreachable  --- 172.18.0.20 ping statistics ---  2 packets transmitted, 0 received, +2 errors, 100% packet loss, time 63ms pipe 2

晕!有地方出错了……netns1有问题。它无法衔接到root,而且从root命名空间里也无法访问到它。可是,由于两个容器都在相同的IP网段172.18.0.0/16里,从netns0容器能够访问到主机的veth1。

这里花了些时刻来找到原因,不过很明显遇到的是路由问题。先查一下root命名空间的路由表:

$ ip route  # ... 疏忽无关行... #  172.18.0.0/16 dev veth0 proto kernel scope link src 172.18.0.11  172.18.0.0/16 dev veth1 proto kernel scope link src 172.18.0.21

在添加了第二个veth对之后,root的网络栈知道了新路由172.18.0.0/16 dev veth1 proto kernel scope link src 172.18.0.21,可是之前已经存在该网络的路由了。当第二个容器尝试ping veth1时,选中的是第一个路由规矩,这导致网络无法连通。假如咱们删去第一个路由sudo ip route delete 172.18.0.0/16 dev veth0 proto kernel scope link src 172.18.0.11,然后重新查看连通性,应该就没有问题了。netns1能够连通,可是netns0就不行了。


假如咱们为netns1选择其他的网段,应该就都能够连通。可是,多个容器在同一个IP网段上应该是合理的运用场景。因而,咱们需求调整veth方案。

别忘了还有Linux网桥——另一种虚拟化网络技术!Linux网桥效果类似于网络switch。它会在衔接到其上的接口间转发网络包。而且由于它是switch,它是在L2层完成这些转发的。

试试这个工具。可是首要,需求清除已有设置,由于之前的一些配置现在不再需求了。删去网络命名空间:

$ sudo ip netns delete netns0 $ sudo ip netns delete netns1 $ sudo ip link delete veth0 $ sudo ip link delete ceth0 $ sudo ip link delete veth1 $ sudo ip link delete ceth1

快速重建两个容器。留意,咱们没有给新的veth0和veth1设备分配任何IP地址:

$ sudo ip netns add netns0 $ sudo ip link add veth0 type veth peer name ceth0 $ sudo ip link set veth0 up $ sudo ip link set ceth0 netns netns0  $ sudo nsenter --net=/var/run/netns/netns0 $ ip link set lo up $ ip link set ceth0 up $ ip addr add 172.18.0.10/16 dev ceth0 $ exit  $ sudo ip netns add netns1 $ sudo ip link add veth1 type veth peer name ceth1 $ sudo ip link set veth1 up $ sudo ip link set ceth1 netns netns1  $ sudo nsenter --net=/var/run/netns/netns1 $ ip link set lo up $ ip link set ceth1 up $ ip addr add 172.18.0.20/16 dev ceth1 $ exit

确保主机上没有新的路由:

$ ip route default via 10.0.2.2 dev eth0 proto dhcp metric 100 10.0.2.0/24 dev eth0 proto kernel scope link src 10.0.2.15 metric 100

最后创立网桥接口:

$ sudo ip link add br0 type bridge $ sudo ip link set br0 up

将veth0和veth1接到网桥上:

$ sudo ip link set veth0 master br0 $ sudo ip link set veth1 master br0


查看容器间的连通性:

$ sudo nsenter --net=/var/run/netns/netns0 $ ping -c 2 172.18.0.20 PING 172.18.0.20 (172.18.0.20) 56(84) bytes of data. 64 bytes from 172.18.0.20: icmp_seq=1 ttl=64 time=0.259 ms 64 bytes from 172.18.0.20: icmp_seq=2 ttl=64 time=0.051 ms --- 172.18.0.20 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 2ms rtt min/avg/max/mdev = 0.051/0.155/0.259/0.104 ms
$ sudo nsenter --net=/var/run/netns/netns1 $ ping -c 2 172.18.0.10 PING 172.18.0.10 (172.18.0.10) 56(84) bytes of data. 64 bytes from 172.18.0.10: icmp_seq=1 ttl=64 time=0.037 ms 64 bytes from 172.18.0.10: icmp_seq=2 ttl=64 time=0.089 ms --- 172.18.0.10 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 36ms rtt min/avg/max/mdev = 0.037/0.063/0.089/0.026 ms

太好了!作业得很好。用这种新方案,咱们根本不需求配置veth0和veth1。只需求在ceth0和ceth1端点分配两个IP地址。可是由于它们都衔接在相同的Ethernet上(记住,它们衔接到虚拟switch上),之间在L2层是连通的:

$ sudo nsenter --net=/var/run/netns/netns0 $ ip neigh 172.18.0.20 dev ceth0 lladdr 6e:9c:ae:02:60:de STALE $ exit  $ sudo nsenter --net=/var/run/netns/netns1 $ ip neigh 172.18.0.10 dev ceth1 lladdr 66:f3:8c:75:09:29 STALE $ exit

太好了,咱们学习了如何将容器变成友邻,让它们互不搅扰,可是又能够连通。

衔接外部世界(IP路由和地址假装)

容器间能够通信。可是它们能和主机,比方root命名空间,通信吗?

$ sudo nsenter --net=/var/run/netns/netns0 $ ping 10.0.2.15 # eth0 address connect: Network is unreachable

这里很明显,netns0没有路由:

$ ip route 172.18.0.0/16 dev ceth0 proto kernel scope link src 172.18.0.10

root命名空间不能和容器通信:

# 首要运用 exit 离开netns0:  $ ping -c 2 172.18.0.10  PING 172.18.0.10 (172.18.0.10) 56(84) bytes of data.  From 213.51.1.123 icmp_seq=1 Destination Net Unreachable  From 213.51.1.123 icmp_seq=2 Destination Net Unreachable  --- 172.18.0.10 ping statistics ---  2 packets transmitted, 0 received, +2 errors, 100% packet loss, time 3ms  $ ping -c 2 172.18.0.20 PING 172.18.0.20 (172.18.0.20) 56(84) bytes of data. From 213.51.1.123 icmp_seq=1 Destination Net Unreachable From 213.51.1.123 icmp_seq=2 Destination Net Unreachable --- 172.18.0.20 ping statistics --- 2 packets transmitted, 0 received, +2 errors, 100% packet loss, time 3ms

要建立root和容器命名空间的连通性,咱们需求给网桥网络接口分配IP地址:

$ sudo ip addr add 172.18.0.1/16 dev br0

一旦给网桥网络接口分配了IP地址,在主机的路由表里就会多一条路由:

$ ip route  # ...疏忽无关行 ...  172.18.0.0/16 dev br0 proto kernel scope link src 172.18.0.1  $ ping -c 2 172.18.0.10 PING 172.18.0.10 (172.18.0.10) 56(84) bytes of data. 64 bytes from 172.18.0.10: icmp_seq=1 ttl=64 time=0.036 ms 64 bytes from 172.18.0.10: icmp_seq=2 ttl=64 time=0.049 ms  --- 172.18.0.10 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 11ms rtt min/avg/max/mdev = 0.036/0.042/0.049/0.009 ms  $ ping -c 2 172.18.0.20 PING 172.18.0.20 (172.18.0.20) 56(84) bytes of data. 64 bytes from 172.18.0.20: icmp_seq=1 ttl=64 time=0.059 ms 64 bytes from 172.18.0.20: icmp_seq=2 ttl=64 time=0.056 ms  --- 172.18.0.20 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 4ms rtt min/avg/max/mdev = 0.056/0.057/0.059/0.007 ms

容器可能也能够ping网桥接口,可是它们仍是无法衔接到主机的eth0。需求为容器添加默许的路由:

$ sudo nsenter --net=/var/run/netns/netns0 $ ip route add default via 172.18.0.1 $ ping -c 2 10.0.2.15 PING 10.0.2.15 (10.0.2.15) 56(84) bytes of data. 64 bytes from 10.0.2.15: icmp_seq=1 ttl=64 time=0.036 ms 64 bytes from 10.0.2.15: icmp_seq=2 ttl=64 time=0.053 ms --- 10.0.2.15 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 14ms rtt min/avg/max/mdev = 0.036/0.044/0.053/0.010 ms  # 为\`netns1\`也做上述配置

这个改动基本上把主机变成了路由,而且网桥接口变成了容器间的默许网关。


很好,咱们将容器衔接到root命名空间上。现在,继续尝试将它们衔接到外部世界。Linux上默许disable了网络包转发(比方,路由功用)。咱们需求先启用这个功用:

# 在 root 命名空间  sudo bash -c 'echo 1 > /proc/sys/net/ipv4/ip_forward'

再次查看连通性:

$ sudo nsenter --net=/var/run/netns/netns0 $ ping 8.8.8.8  # hung住了...

仍是不作业。哪里弄错了呢?假如容器能够向外部发包,那么方针服务器无法将包发回容器,由于容器的IP地址是私有的,那个特定IP的路由规矩只有本地网络知道。而且有很多容器共享的是完全相同的私有IP地址172.18.0.10。这个问题的解决方法称为网络地址翻译(NAT)。

在抵达外部网络之前,容器宣布的包会将源IP地址替换为主机的外部网络地址。主机还会跟踪一切已有的映射,会在将包转发回容器之前康复之前被替换的IP地址。听上去很杂乱,可是有一个好消息!iptables模块让咱们只需求一条指令就能够完成这一切:

$ sudo iptables -t nat -A POSTROUTING -s 172.18.0.0/16 ! -o br0 -j MASQUERADE

指令十分简单。在nat表里添加了一条POSTROUTING chain的新路由,会替换假装一切源于172.18.0.0/16网络的包,可是不通过网桥接口。

查看连通性:

$ sudo nsenter --net=/var/run/netns/netns0 $ ping -c 2 8.8.8.8 PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data. 64 bytes from 8.8.8.8: icmp_seq=1 ttl=61 time=43.2 ms 64 bytes from 8.8.8.8: icmp_seq=2 ttl=61 time=36.8 ms --- 8.8.8.8 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 2ms rtt min/avg/max/mdev = 36.815/40.008/43.202/3.199 ms

要知道这里咱们用的默许战略——允许一切流量,这在真实的环境里是十分危险的。主机的默许iptables战略是ACCEPT:

sudo iptables -S -P INPUT ACCEPT -P FORWARD ACCEPT -P OUTPUT ACCEPT

Docker默许约束一切流量,随后仅仅为已知的路径启用路由。

如下是在CentOS 8机器上,单个容器暴露了端口5005时,由Docker daemon生成的规矩:

$ sudo iptables -t filter --list-rules -P INPUT ACCEPT -P FORWARD DROP -P OUTPUT ACCEPT -N DOCKER -N DOCKER-ISOLATION-STAGE-1 -N DOCKER-ISOLATION-STAGE-2 -N DOCKER-USER -A FORWARD -j DOCKER-USER -A FORWARD -j DOCKER-ISOLATION-STAGE-1 -A FORWARD -o docker0 -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT -A FORWARD -o docker0 -j DOCKER -A FORWARD -i docker0 ! -o docker0 -j ACCEPT -A FORWARD -i docker0 -o docker0 -j ACCEPT -A DOCKER -d 172.17.0.2/32 ! -i docker0 -o docker0 -p tcp -m tcp --dport 5000 -j ACCEPT -A DOCKER-ISOLATION-STAGE-1 -i docker0 ! -o docker0 -j DOCKER-ISOLATION-STAGE-2 -A DOCKER-ISOLATION-STAGE-1 -j RETURN -A DOCKER-ISOLATION-STAGE-2 -o docker0 -j DROP -A DOCKER-ISOLATION-STAGE-2 -j RETURN -A DOCKER-USER -j RETURN  $ sudo iptables -t nat --list-rules -P PREROUTING ACCEPT -P INPUT ACCEPT -P POSTROUTING ACCEPT -P OUTPUT ACCEPT -N DOCKER -A PREROUTING -m addrtype --dst-type LOCAL -j DOCKER -A POSTROUTING -s 172.17.0.0/16 ! -o docker0 -j MASQUERADE -A POSTROUTING -s 172.17.0.2/32 -d 172.17.0.2/32 -p tcp -m tcp --dport 5000 -j MASQUERADE -A OUTPUT ! -d 127.0.0.0/8 -m addrtype --dst-type LOCAL -j DOCKER -A DOCKER -i docker0 -j RETURN -A DOCKER ! -i docker0 -p tcp -m tcp --dport 5005 -j DNAT --to-destination 172.17.0.2:5000  $ sudo iptables -t mangle --list-rules -P PREROUTING ACCEPT -P INPUT ACCEPT -P FORWARD ACCEPT -P OUTPUT ACCEPT  -P POSTROUTING ACCEPT  $ sudo iptables -t raw --list-rules -P PREROUTING ACCEPT -P OUTPUT ACCEPT

让外部世界可以访问容器(端口发布)

大家都知道可以将容器端口发布给一些(或者所有)主机的接口。但是端口发布到底是什么意思呢?

假设容器内运行着服务器:

$ sudo nsenter --net=/var/run/netns/netns0 $ python3 -m http.server --bind 172.18.0.10 5000

如果我们试着从主机上发送一个HTTP请求到这个服务器,一切都工作得很好(root命名空间和所有容器接口之间有链接,当然可以连接成功):

# 从 root 命名空间  $ curl 172.18.0.10:5000  <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN"  "http://www.w3.org/TR/html4/strict.dtd">  # ... 忽略无关行 ...

但是,如果要从外部访问这个服务器,应该使用哪个IP呢?我们知道的唯一IP是主机的外部接口地址eth0:

$ curl 10.0.2.15:5000 curl: (7) Failed to connect to 10.0.2.15 port 5000: Connection refused

因此,我们需要找到方法,能够将到达主机eth05000端口的所有包转发到目的地172.18.0.10:5000。又是iptables来帮忙!

# 外部流量  sudo iptables -t nat -A PREROUTING -d 10.0.2.15 -p tcp -m tcp --dport 5000 -j DNAT --to-destination 172.18.0.10:5000  # 本地流量 (因为它没有通过 PREROUTING chain)  sudo iptables -t nat -A OUTPUT -d 10.0.2.15 -p tcp -m tcp --dport 5000 -j DNAT --to-destination 172.18.0.10:5000

另外,需要让iptables能够在桥接网络上截获流量:

sudo modprobe br_netfilter

测试:

curl 10.0.2.15:5000 <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN"  "http://www.w3.org/TR/html4/strict.dtd">  # ... 忽略无关行 ...

理解Docker网络驱动

我们可以怎么使用这些知识呢?比如,可以试着理解Docker网络模式。

从--network host模式开始。试着比较一下命令ip link和sudo docker run -it --rm --network host alpine ip link的输出。它们几乎一样!在host模式下,Docker简单地没有使用网络命名空间隔离,容器就在root网络命名空间里工作,并且和主机共享网络栈。

下一个模式是--network none。sudo docker run -it --rm --network host alpine ip link的输出只有一个loopback网络接口。这和之前创建的网络命名空间,没有添加veth设备前很相似。

最后是--network bridge(默认)模式。这正是我们前文尝试创建的模式。大家可以试试ip 和iptables命令,分别从主机和容器的角度观察一下网络栈。

rootless容器和网络

podman容器管理器的一个很好的特性是关注于rootless容器。但是,你可能注意到,本文使用了很多sudo命令。说明,没有root权限无法配置网络。Podman在root网络上的方案和Docker非常相似。但是在rootless容器上,Podman使用了slirp4netns项目:

从Linux 3.8开始,非特权用户可以创建user_namespaces(7)的同时创建network_namespaces(7)。但是,非特权网络命名空间并不是很有用,因为在主机和网络命名空间之间创建veth(4)仍然需要root权限。

slirp4netns可以用完全非特权的方式将网络命名空间连接到Internet上,通过网络命名空间里的一个TAP设备连接到用户态的TCP/IP栈(slirp)。

rootless网络是很有限的:“从技术上说,容器本身没有IP地址,因为没有root权限,无法实现网络设备的关联。另外,从rootless容器ping是不会工作的,因为它缺少CAP_NET_RAW安全能力,而这是ping命令必需的。”但是它仍然比完全没有连接要好。

结论

本文介绍的组织容器网络的方案仅仅是可能方案的一种(可能是最为广泛使用的一种)。还有很多别的方式,由官方或者第三方插件实现,但是所有这些方案都严重依赖于Linux网络虚拟化技术。因此,容器化可以认为是一种虚拟化技术。

 
本公司销售:阿里云、腾讯云、百度云、天翼云、金山大米云、金山企业云盘!可签订合同,开具发票。

我有话说: