更多優秀內容請關注:新猿技術生態圈
docker 網絡
# docker的網絡是基於linux namespace虛擬化實現的
docker網絡是基於什么的?
linux網絡名稱空間
Docker 的四種網絡模
Docker 本身的技術依賴於 Linux 內模式核虛擬化技術的發展。所以 Docker 對 Linux 內核的特性有很強的依賴。
本章主要介紹 Docker 所使用的 Linux 網絡技術。
一、網絡基礎
其中 Docker 使用到的與 Linux 網絡有關的技術分別有:網絡名稱空間、Veth、Iptables、網橋、路由。
1.網絡名稱空間介紹
為了支持網絡協議棧的多個實例,Linux 在網絡協議棧中引入了網絡名稱空間(Network Namespace),這些 獨立的協議棧被隔離到不同的命名空間中。處於不同的命名空間的網絡協議棧是完全隔離的,彼此之間無法進行 網絡通信,就好像兩個“平行宇宙”。通過這種對網絡資源的隔離,就能在一個宿主機上虛擬多個不同的網絡環 境,而 Docker 正是利用這種網絡名稱空間的特性,實現了不同容器之間的網絡隔離。在 Linux 的網絡命名空間 內可以有自己獨立的 Iptables 來轉發、NAT 及 IP 包過濾等功能。
Linux 的網絡協議棧是十分復雜的,為了支持獨立的協議棧,相關的這些全局變量都必須修改為協議棧私有。 最好的辦法就是讓這些全局變量成為一個 Net Namespace 變量的成員,然后為了協議棧的函數調用加入一個 Namespace 參數。這就是 Linux 網絡名稱空間的核心。所以的網絡設備都只能屬於一個網絡名稱空間。當然, 通常的物理網絡設備只能關聯到 root 這個命名空間中。虛擬網絡設備則可以被創建並關聯到一個給定的命名空 間中,而且可以在這些名稱空間之間移動
2.創建一個命名空間
# 新建一台新機器
[root@docter ~]# ip netns add test01
[root@docter ~]# ip netns add test02
[root@docker1 ~]# ip netns ls #或者 ip netns list
test02
test01
1)Veth設備對
引入 Veth 設備對是為了在不同的網絡名稱空間之間進行通信,利用它可以直接將兩個網絡名稱空間連接起來。
由於要連接的兩個網絡命名空間,所以 Veth 設備是成對出現的,很像一對以太網卡,並且中間有一根直連 的網線。
既然是一對網卡,那么我們將其中一端稱為另一端的 peer。在 Veth 設備的一端發送數據時,它會將數 據直接發送到另一端,並觸發另一端的接收操作
2)Veth設備操作
先打通tes01與root命名空間的網絡
1> 創建Veth設備對
[root@docter ~]# ip link add veth type veth peer name veth001
[root@docter ~]# ip link show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000
link/ether 00:0c:29:49:7a:cc brd ff:ff:ff:ff:ff:ff
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000
link/ether 00:0c:29:49:7a:d6 brd ff:ff:ff:ff:ff:ff
4: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default
link/ether 02:42:88:af:84:ae brd ff:ff:ff:ff:ff:ff
5: veth001@veth: <BROADCAST,MULTICAST,M-DOWN> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
link/ether 92:8a:5e:3c:3a:b2 brd ff:ff:ff:ff:ff:ff
6: veth@veth001: <BROADCAST,MULTICAST,M-DOWN> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
link/ether c2:72:c6:3e:d1:75 brd ff:ff:ff:ff:ff:ff
2> 綁定命名空間
將veth設備對一端添加到tes01命名空間內
veth另一端留給root命名空間
[root@docter ~]# ip link set veth001 netns test01
[root@docter ~]# ip link show | grep veth
6: veth@if5: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
# 此時查看不到veth001,進入tes01命名空間后,即可查看到
[root@docter ~]# ip netns exec test01
[root@docter ~]# ip link show #或者 ip a
1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN mode DEFAULT group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
5: veth001@if6: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
link/ether 92:8a:5e:3c:3a:b2 brd ff:ff:ff:ff:ff:ff link-netnsid 0
# 因為進入與退出命名空間的主機名是一樣的,記得退出到root名稱空間
[root@docker1 ~]# exit
exit
3> 給tes01內的Veth分配一個IP
# 1、分配一個IP
[root@docter ~]# ip netns exec test01 ip addr add 172.16.0.111/20 dev veth001
# 2、綁定veth到tes01
[root@docter ~]# ip netns exec test01 ip link set dev veth001 up
# 3、查看,綁定+分配成功
[root@docter ~]# ip netns exec test01 ip a
1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
5: veth001@if6: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state LOWERLAYERDOWN group default qlen 1000
link/ether 92:8a:5e:3c:3a:b2 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.16.0.111/20 scope global veth001
valid_lft forever preferred_lft forever
4> 為對端Veth設備分配IP
對端為root命名空間
# 1、查看,發現此時無IP
[root@docker ~]# ip a
···
8: veth@if7: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
link/ether 66:ac:b6:d2:81:d3 brd ff:ff:ff:ff:ff:ff link-netnsid 0
# 2、為其分配IP
[root@docter ~]# ip addr add 172.16.0.112/20 dev veth
[root@docter ~]# ip link set dev veth down
[root@docter ~]# ip link set dev veth up
# 3、再次查看發現IP已分配成功
[root@docker ~]# ip a
···
8: veth@if7: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000
link/ether 66:ac:b6:d2:81:d3 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.16.0.112/20 scope global veth
valid_lft forever preferred_lft forever
5> 測試互ping
# 此時測試雙方可以相互ping通!
- 宿主機vethip的為172.16.0.112
- tes01內veth的ip為172.16.0.111
1.在宿主機ping test01
[root@docter ~]# ping 172.16.0.111
PING 172.16.0.111 (172.16.0.111) 56(84) bytes of data.
64 bytes from 172.16.0.111: icmp_seq=1 ttl=64 time=0.062 ms
64 bytes from 172.16.0.111: icmp_seq=2 ttl=64 time=0.103 ms
^C
--- 172.16.0.111 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1005ms
rtt min/avg/max/mdev = 0.062/0.082/0.103/0.022 ms
[root@docter ~]# ping 172.16.0.112
PING 172.16.0.112 (172.16.0.112) 56(84) bytes of data.
64 bytes from 172.16.0.112: icmp_seq=1 ttl=64 time=0.050 ms
64 bytes from 172.16.0.112: icmp_seq=2 ttl=64 time=0.060 ms
^C
--- 172.16.0.112 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1009ms
rtt min/avg/max/mdev = 0.050/0.055/0.060/0.005 ms
2.在test01命名空間內ping宿主機
[root@docker ~]# ip netns exec test01
[root@docter ~]# ping 172.16.0.112
PING 172.16.0.112 (172.16.0.112) 56(84) bytes of data.
64 bytes from 172.16.0.112: icmp_seq=1 ttl=64 time=0.129 ms
64 bytes from 172.16.0.112: icmp_seq=2 ttl=64 time=0.456 ms
bash 6> 補充概念
每run起一個容器,則會在ip a內生成一個veth設備,容器清除后,veth設備則會隨之清除
3.網橋介紹
Linux 可以支持多個不同的網絡,它們之間能夠相互通信,就需要一個網橋。 網橋是二層的虛擬網絡設備, 它是把若干個網絡接口“連接”起來,從而報文能夠互相轉發。
網橋能夠解析收發的報文,讀取目標 MAC 地 址的信息,和自己記錄的 MAC 表結合,來決定報文的轉發目標網口。 網橋設備 brO 綁定了 eth0、 eth1 。對於網絡協議的上層來說,只看得到 brO 。
因為橋接是在數據鏈 路層實現的 ,上層不需要關心橋接的細節,於是協議枝上層需要發送的報文被送到 brO ,網橋設備的處理代 碼判斷報文該被轉發到 ethO 還是 ethl ,或者兩者皆轉發。反過來,從 ethO 或從 ethl 接收到的報文被提交 給網橋的處理代碼,在這里會判斷報文應該被轉發、丟棄還是提交到協議上層。 而有時 ethl 也可能會作為 報文的源地址或目的地址 直接參與報文的發送與接收,從而繞過網橋。
# 網橋 ----------> 相當於 交換機
4、網橋
docker network [cmd]
# 1、查看網橋
docker network ls
# 2、創建網橋
docker network create [網橋名稱]
# 3、查看網橋信息
docker network inspect [網橋的名稱|ID]
# 4、連接一個容器
docker network connect [網絡名稱] [容器名稱]
# 5、斷開一個連接
docker network disconnect [網絡名稱] [容器名稱]
[root@docker ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
cf263ab4f7c0 nginx "/docker-entrypoint.…" 19 minutes ago Up 19 minutes 80/tcp boring_poincare
60b5ca330f76 nginx "/docker-entrypoint.…" 24 minutes ago Up 24 minutes 80/tcp silly_chatelet
[root@docker ~]# docker network cnnect mm boring_poincare #創建
[root@docker ~]# docker network disconnect mm boring_poincare #刪除
# 6、刪除一個網橋
docker network rm [網橋名稱]
# 7、清除所有網橋(清除除了默認的三個網橋之外和正在使用的)
docker network prune
[root@docker ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
ca6024e1565b bridge bridge local
78c7eb1884a2 host host local
55fea18f04d0 mm bridge local
442fc1b858a6 none null local
9263d05caf7a ping bridge local
[root@docker ~]# docker rm -f 9263d05caf7a
Error: No such container: 9263d05caf7a
[root@docker ~]# docker network rm 9263d05caf7a
9263d05caf7a
5、iptables
我們知道, Linux 絡協議樵非常高效,同時比較復雜,如果我們希望在數據的處理過程中對關心的數據進行 一些操作該怎么做呢?
Linux 提供了一套機制來為用戶實現自定義的數據包處理過程。在 Linux 網絡協議棋中有一組回調函數掛接點,通過這些掛接點掛接的鈎子函數可以在 Linux 網絡棋處理數 據包的過程中對數據包進行一些操作,例如過濾、修改、丟棄等 整個掛接點技術叫作 Netfilter lptables Netfilter 負責在內核中執行各種掛接的規則,運行在內核模式中:而 lptables 是在用戶模式下運行的進程,負責協助維護內核中 Netfilter 的各種規則表 通過 者的配合來實現整個 Linux 網絡協議戰中靈活的數據包處理 機制。
6、總結
設備 | 作用總結 |
---|---|
network namespace | 主要提供了關於網絡資源的隔離,包括網絡設備、IPv4 和 IPv6 協議棧、IP 路 由表、防火牆、/proc/net 目錄、/sys/class/net 目錄、端口(socket)等 |
linux Bridge | 功能相當於物理交換機,為連在其上的設備(容器)轉發數據幀。如 docker0 網橋 |
iptables | 主要為容器提供 NAT 以及容器網絡安全 |
veth pair | 兩個虛擬網卡組成的數據通道。在 Docker 中,用於連接 Docker 容器和 Linux Bridge。一端在容器中作為 eth0 網卡,另一端在 Linux Bridge 中作為網橋的 一個端口 |
二、四種網絡模式(模型)
0、簡介
當 Docker 進程啟動時,會在主機上創建一個名為 docker0 的虛 擬網橋,此主機上啟動的 Docker 容器會連接到這個虛擬網橋上。 虛擬網橋的工作方式和物理交換機類似,這樣主機上的所有容器 就通過交換機連在了一個二層網絡中。(默認為該模式)
Docker 使用 Linux 橋接的方式,在宿主機虛擬一個 Docker 容器網橋(docker0),Docker 啟動一個容器時會根據 Docker 網橋的網段分配給容器一個 IP 地址,稱為 Container-IP,同時 Docker 網橋是每個容器的默認網關。 因為在同一宿主機內的容器都接入同一個網橋,這樣容器之間就能夠通過容器的 Container-IP 直接通信。
Docker 網橋是宿主機虛擬出來的,並不是真實存在的網絡設備,外部網絡是無法尋址到的,這也意味着外 部網絡無法通過直接 Container-IP 訪問到容器。如果容器希望外部訪問能夠訪問到,可以通過映射容器端口到 宿主主機(端口映射),即 docker run 創建容器時候通過 -p 或 -P 參數來啟用,訪問容器的時候就通過[宿主 機 IP]:[容器端口]訪問容器。
# 1、HOST模式
–-network=host
容器和宿主機共享 Network namespace
# 2、Container模式
–network=container:ID
容器和另外一個容器共享 Network namespace。 kubernetes 中的 pod 就是多個容器共享一個 Network namespace
# 3、none模式
–network=none
容器有獨立的 Network namespace,但並沒有對其進行任何網 絡設置,如分配 veth pair 和網橋連接,配置 IP 等
# 4、bridge模式
–network=bridge
1、HOST模式(主機)
如果啟動容器的時候使用 host 模式,那么這個容器將不會獲得一個獨立的 Network Namespace,而是和宿主機共用一個 Network Namespace。
容器將不會虛擬出自己的網卡,配置自己的 IP 等,而是使用宿主機的 IP 和端口。但是,容器的其他方面,如文件系統、進程列表等還是和宿主機隔離的。
使用 host 模式的容器可以直接使用宿主機的 IP 地址與外界通信,容器內部的服務端口也可以使用宿主機的端口,不需要進行 NAT,host 最大的優勢就是網絡性能比較好,但是 docker host 上已經使用的端口就不能再用了,網絡的隔離性不好。
1)案例
# 運行容器,指定為host模式
[root@docker ~] docker run -d --name my-web --network=host nginx
# 查看啟動
[root@docker ~] docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
d7b23542ced3 nginx "/docker-entrypoint.…" About a minute ago Up About a minute my-web
# 容器與宿主機主機名一致,是因為得到了host解析的緣故,自己要區分好,內部內容不同
# 容器與宿主機ip a內容也是一樣的
[root@docker ~] docker exec -it my-web
root@docker:/ ls
bin dev docker-entrypoint.sh home lib64 mnt proc run srv tmp var
boot docker-entrypoint.d etc lib media opt root sbin sys usr
# 通過本機ip+端口可直接訪問到容器內部
[root@docker ~] curl 127.0.0.1
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Thank you for using nginx.</em></p>
</body>
</html>
# 若再次啟動一個nginx並指定為host模式,則會端口沖突
[root@docter ~]# docker run -d --network=host nginx
316516cf07cebc462c4c2ef6ec2887c207dc4e0e161d6111121ff3957447190b
# 啟動后速度查看后台會顯示啟動
[root@docter ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
d7f9566b853b nginx "/docker-entrypoint.…" 3 minutes ago Up 3 minutes thirsty_black
7744fbe4a8a8 nginx "/docker-entrypoint.…" 54 minutes ago Up 54 minutes 0.0.0.0:49154->80/tcp, :::49154->80/tcp epic_neumannb
# 隔兩秒就沒有了,端口沖突起不來的緣故
[root@docter ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
d7f9566b853b nginx "/docker-entrypoint.…" 3 minutes ago Up 3 minutes thirsty_black
# 啟動時感覺像成功,其實是在報錯誤日志,只不過沒顯示而已
[root@docker ~] docker logs romantic_tereshkova
nginx: [emerg] bind() to 0.0.0.0:80 failed (98: Address already in use)
2021/03/28 11:03:36 [emerg] 1#1: bind() to [::]:80 failed (98: Address already in use)
···
2)HOST模式總結
1、容器使用宿主主機的網卡,不能跟宿主主機之間的端口沖突。
2、四種模式相比之下性能最高。
2、Container模式(集裝箱/容器)
# Container kang teng ne
這個模式指定新創建的容器和已經存在的一個容器共享一個 Network Namespace,而不是和宿主機共享。
新創建的容器不會創建自己的網卡,配置自己的 IP,而是和一個指定的容器共享 IP、端口范圍等。
同樣,兩個容器除了網絡方面,其他的如文件系統、進程列表等還是隔離的,兩個容器的進程可以通過 lo 網卡設備通信。
1)案例
# container后跟共享容器的名稱
[root@docker ~] docker run -it --network=Container:ngixn nginx
[root@docter mm]# docker run -it --network="Container:nginx1" nginx #這種也可以
WARNING: IPv4 forwarding is disabled. Networking will not work.
root@f95beddd2aa5:/# ip a
# 訪問nginx測試成功
root@docker:/ curl 127.0.0.1
<!DOCTYPE html>
···
</body>
</html>
2)Container模式總結
1、一個容器使用另一個容器的網卡(網絡共享)
2、K8s大量內使用
3、none模式(無網絡)
使用 none 模式,Docker 容器擁有自己的 Network Namespace,但是,並不為 Docker 容器進行任何網絡 配置。也就是說,這個 Docker 容器沒有網卡、IP、路由等信息,需要我們自己為 Docker 容器添加網卡、配置 IP 等。
這種網絡模式下容器只有 lo 回環網絡,沒有其他網卡。none 模式可以在容器創建時通過–network=none 來指定。這種類型的網絡沒有辦法聯網,封閉的網絡能很好的保證容器的安全性
適用於保密文件等
很少用,無網絡
4、bridge模式(橋接)
當Docker進程啟動時,會在主機上創建一個名為docker0的虛擬網橋,此主機上啟動的Docker容器會連接到這個虛擬網橋上,虛擬網橋的工作方式和物理交換機類似,這樣主機上的所有容器就通過交換機連在了一個二層網絡中。
從docker0子網中分配一個ip給容器使用,並設置docker0的ip地址為容器的默認網關,在主機上創建一對虛擬網卡veth pair設備,Docker將veth pair設備的一段放在新創建的容器中,並命名為eth0(容器的網卡),另一端放在主機中,以vethxxx這樣類似的名字命名,並將這個網絡設備加入到docker0網橋中,可以通過brctl show命令查看。
bridge 模式是docker的默認網絡模式,無需寫 --net 參數,使用docker run -p時,docker實際是在iptables做了DNAT規則,實現端口轉發功能,可以使用iptables -t nat -vnL 查看。
運行容器默認不指定,即為bridge模式
若創建網橋如lnmp,運行容器時指定為lnmp,即為bridge模式
1.創建一個網橋(相當於自定義名稱,默認模式bridge),其余三個模式無須創建,可直接指定
[root@docter ~]# docker network create mm
7ed1e078ef5e54719bbc1032e2bc1c2caefcb90c4b0283525aa1a926ed61d6f1
[root@docter ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
aea495e49e87 bridge bridge local
b0a268c1d902 host host local
7ed1e078ef5e mm bridge local
0d214ca04d47 none null local
2.指定網絡模式運行一個容器
[root@docter ~]# docker run -d --network=mm nginx
WARNING: IPv4 forwarding is disabled. Networking will not work.
86c72202856aef70431bacff36f13d3a96085b309bd6ed18c2774dae80cd5471
-- name # 加入DNS解析
[root@docter ~]# docker run -d --network=mm --name nginx11 nginx #執行這條命令就行,下面無需執行
WARNING: IPv4 forwarding is disabled. Networking will not work.
b600d3d9cae3c8fbef58b68e71c6006940b078d1af624b19d1a4c229c7855eec
[root@docter ~]# docker run -d --network=mm --name nginx2 nginx
WARNING: IPv4 forwarding is disabled. Networking will not work.
2413cee15626b9f2a5b0a14a410fc95f676ba448d07df766578904c62eb81ebb
[root@docter ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
2413cee15626 nginx "/docker-entrypoint.…" 4 seconds ago Up 4 seconds 80/tcp nginx2
b600d3d9cae3 nginx "/docker-entrypoint.…" 8 seconds ago Up 7 seconds 80/tcp nginx11
86c72202856a nginx "/docker-entrypoint.…" About a minute ago Up About a minute 80/tcp sharp_villani
d31deaf4037b nginx "/docker-entrypoint.…" 4 minutes ago Up 4 minutes 80/tcp nginx1
# 測試訪問
[root@docter ~]# docker run -it --network=mm nginx
WARNING: IPv4 forwarding is disabled. Networking will not work.
root@ce0acd026af7:/# curl nginx11 #測試成功
root@ce0acd026af7:/# curl nginx2 #測試成功
root@ce0acd026af7:/# curl nginx33 #測試失敗,因為沒有創建
<!DOCTYPE html>
<html>
<head>
...
</body>
</html>
# 查看:為bridge模式
[root@docker ~]# docker inspect nginx
···
"Networks": {
"bridge": {
"IPAMConfig": null,
"Links": null,
···
3.不指定網絡模式運行一個容器
[root@docker ~] docker run -d --name mysql mysql:5.7
b4cbedd83f1325cd778f0d29b9ee25fd1949a5276166d7980a94a31444132c3a
# 查看:依然默認是bridge模式
[root@docker ~] docker inspect mysql
···
"Networks": {
"bridge": {
"IPAMConfig": null,
三、 搭建wordpress
# 1、上傳wordpress包
# 2、創建同一個網橋
# 3、創建mysql
# 4、創建php
# 5、nginx
# 6、訪問測試
1、上傳wordpress包
# 1、創建wordpress目錄
[root@docter ~]# mkdir wordpress
[root@docter ~]# cd wordpress/
# 2、上傳wordpress包並解壓
[root@docter wordpress]# wget http://www.mmin.xyz:82/package/blog/wordpress.tar.gz
[root@docter wordpress]# tar xf wordpress.tar.gz
[root@docter wordpress]# mv wordpress/* .
2、創建同一個網橋
# 1、創建lnmp網橋
[root@docter ~]# docker network create lnmp
# 2、查看網橋
[root@docter ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
2d59906f6edf bridge bridge local
73d1ff777f89 host host local
69dd9d048731 lnmp bridge local
cba43c9111fe none null local
3、創建mysql
# 1、拉取mysql鏡像
[root@docter ~]# docker pull registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1
# 2、啟動mysql容器
[root@docter ~]# docker run -d -e MYSQL_ROOT_PASSWORD=123 --name mysql --network lnmp registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1
# 3、查看mysql容器
[root@docter ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 35 seconds ago Up 35 seconds 3306/tcp, 33060/tcp mysql
4、創建php
# 1、拉取php鏡像
[root@docter ~]# docker pull registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1
# 2、啟動php容器
[root@docter wordpress]# docker run -d -v /root/wordpress/:/usr/share/nginx/html --network lnmp --name php registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1
# 3、查看php容器
[root@docter ~]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
b40ea7b4a285 registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 "php-fpm -F" 12 seconds ago Up 10 seconds 9000/tcp php
abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 11 minutes ago Up 11 minutes 3306/tcp, 33060/tcp mysql
5、nginx
# 1、拉取nginx鏡像
[root@docter wordpress]# docker pull registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1
# 2、啟動nginx容器
[root@docter wordpress]# docker run -d -v /root/wordpress/:/usr/share/nginx/html --network lnmp --name nginx -p 80:80 registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1
# 3、查看nginx容器
[root@docter wordpress]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
11c83e65f917 registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1 "/bin/sh -c 'nginx -…" 15 seconds ago Up 14 seconds 0.0.0.0:80->80/tcp, :::80->80/tcp, 443/tcp nginx
b40ea7b4a285 registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 "php-fpm -F" 8 minutes ago Up 8 minutes 9000/tcp php
abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 19 minutes ago Up 19 minutes 3306/tcp, 33060/tcp mysql
6、訪問測試
# 1、查看所有容器
[root@docter wordpress]# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
11c83e65f917 registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1 "/bin/sh -c 'nginx -…" About a minute ago Up About a minute 0.0.0.0:80->80/tcp, :::80->80/tcp, 443/tcp nginx
b40ea7b4a285 registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 "php-fpm -F" 9 minutes ago Up 9 minutes 9000/tcp php
abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 21 minutes ago Up 21 minutes 3306/tcp, 33060/tcp mysql
# 2、進入數據庫容器創建wordpress
[root@docter wordpress]# docker exec -it mysql
root@abb32b3a0da7:/# mysql -uroot -p123
mysql> create database wordpress;
Query OK, 1 row affected (0.00 sec)
# 3、Ip訪問
192.168.15.30 依次按步驟訪問
# 4、wordpress顯示頁面
四、圖形化界面 -- 補充
# 官網 https://documentation.portainer.io/v2.0/deploy/ceinstalldocker/
1、Portainer 服務器部署
# 1、創建Portainer
[root@docter ~]# docker volume create portainer_data
portainer_data
# 2、服務端
[root@docter ~]# docker run -d -p 8000:8000 -p 9000:9000 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce
# 3、Docker 主機中部署代理。
[root@docter ~]# docker run -d -p 9001:9001 --name portainer_agent --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/docker/volumes:/var/lib/docker/volumes portainer/agent
# 4、訪問
http://192.168.15.30:9000/
更多優秀內容請關注:新猿技術生態圈