原創作品,轉載請注明出處:點我
Swarm介紹
Swarm是Docker公司在2014年12月初發布的一套較為簡單的工具,用來管理Docker集群,它將一群Docker宿主機變成一個單一的,虛擬的主機。Swarm使用標准的Docker API接口作為其前端訪問入口,換言之,各種形式的Docker Client(dockerclient in go, docker_py, docker等)均可以直接與Swarm通信。Swarm幾乎全部用Go語言來完成開發,上周五,4月17號,Swarm0.2發布,相比0.1版本,0.2版本增加了一個新的策略來調度集群中的容器,使得在可用的節點上傳播它們,以及支持更多的Docker命令以及集群驅動。
Swarm deamon只是一個調度器(Scheduler)和路由器(router),Swarm自己不運行容器,它只是接受docker客戶端發送過來的請求,調度適合的節點來運行容器,這意味着,即使Swarm由於某些原因掛掉了,集群中的節點也會照常運行,當Swarm重新恢復運行之后,它會收集重建集群信息。下面是Swarm的結構圖:
如何使用Swarm
有3台機器,sclu083,IP地址是10.13.181.83,sclu084,IP地址是10.13.181.84,atsg124 ,IP地址是10.32.105.124,利用這三台機器創建一個Docker集群,其中sclu083同時充當swarm manager管理集群.
Swarm安裝
最簡單的安裝Swarm的方式就是用Docker官方提供的Swarm鏡像:
sudo docker pull swarm
Docker集群管理需要服務發現(Discovery service backend)功能.Swarm支持以下幾種discovery service backend:Docker Hub上面內置的服務發現功能,本地的靜態文件描述集群(static file describing the cluster),etcd(順帶說一句,etcd這玩意貌似很火很有前途,有時間研究下),consul,zookeeper和一些靜態的ip列表(a static list of ips).本文會詳細介紹前面兩種方法backend的使用。
在使用Swarm進行集群管理之前,需要先把准備加入集群的所有的節點的docker deamon的監聽端口修改為0.0.0.0:2375,可以直接使用 sudo docker –H tcp://0.0.0.0:2375 &命令,也可以在配置文件中修改
sudo vim /etc/default/docker
在文件的最后面添加下面這句
D0OCKER_OPTS=”-H 0.0.0.0:2375 –H unix:///var/run/docker.sock”
注意:一定是要在所有的節點上進行修改,修改之后要重啟docker deamon
sudo service docker restart
第一種方法:使用Docker Hub上面內置的服務發現功能
第一步:在任何一台節點上面執行swarm create命令來創建一個集群標志。這條命令執行完畢之后,swarm會前往Docker Hub上內建的發現服務中獲取一個全球唯一的token,用以唯一的標識swarm管理的Docker集群。
sudo docker run –-rm swarm create
我們在sclu084 這台機器上執行上面的命令,效果如下:
返回的token是d947b55aa8fb9198b5d13ad81f61ac4d,這個token一定要記住,因為接下來的操作都會用到這一個token。
第二步:在所有的要加入集群的機器上面執行swarm join命令,把機器加入集群
本次試驗就是要在所有的三台機器上執行命令:
sudo docker run –-rm swarm join –addr=ip_address
:2375 token://d947b55aa8fb9198b5d13ad81f61ac4d
在IP地址為10.13.181.84機器上面執行的效果如下圖:
執行這條命令后不會立即返回 ,我們手動通過Ctrl+C返回。
第三步:啟動swarm manager
因為我們是要讓sclu083充當Swarm管理節點,所以我們要在這條機器上面執行swarm manage這條命令:
sudo docker run –d –p 2376:2375 swarm manage token:// d947b55aa8fb9198b5d13ad81f61ac4d
需要注意的是:在這條命令中,第一:要以daemon的形式運行swarm。第二:端口映射:2376可以更換成任何一個本機沒有占用的端口,一定不能是2375。否則就會出問題。
執行結果如下如所示:
執行完這個命令之后,整個集群已經啟動起來了。
現在可以在任何一台節點上查看集群上的所有節點了。
之后可以在任何一台安裝了docker的機器上面通過命令(命令中要指明swarm maneger 機器的IP地址和端口)在這個集群上面運行Dcoker容器操作。
現在在10.13.181.85這台機器上面查看集群的節點的信息。info命令可以換成任何一個Swarm支持的docker命令,這些命令可以查看官方文檔
sudo docker –H 10.13.181.83:2376 info
由上圖的結果,我們可以發現一個問題:明明這個小集群中是有3個節點的,但是info命令只顯示了2個節點。還缺少節點10.32.105.124。為什么會出現這個情況呢?
因為10.32.105.124這台機器沒有設置上面的docker daemon監聽0.0.0.0:2375這個端口,所以Swarm沒辦法吧這個節點加入集群中來。
在使用Docker Hub內置的發現服務時,會出現一個問題,就是使用swarm create時會出現
time="2015-04-21T08:56:25Z" level=fatal msg="Get https://discovery-stage.hub.docker.com/v1/clusters/d947b55aa8fb9198b5d13ad81f61ac4d: dial tcp: i/o timeout"
類似於這樣的錯誤,不知道是什么原因,有待解決。
當使用Docker Hub內置的服務發現功能出現問題時,可以使用下面的第二種方法。
第二種方法:使用文件
第二種方法相對而言比第一種方法要簡單,也更不容易出現timeout的問題。
第一步:在sclu083這台機器上新建一個文件,把要加入集群的機器的IP地址寫進去
第二步:在sclu083這台機器上面執行swarm manage命令:
sudo docker run –d –p 2376:2375 –v $(pwd)/cluster:/tmp/cluster swarm manage file:///tmp/cluster
注意:這里一定要使用-v命令,因為cluster文件是在本機上面,啟動的容器默認是訪問不到的,所以要通過-v命令共享。還有,file:///千萬不能忘記了
可以看到,swarm已經運行起來了。現在可以查看下集群節點信息了,使用命令:
sudo docker run –rm –v $(pwd)/cluster:/tmp/cluster swarm list file:///tmp/cluster
(在使用文件作為服務發現的時候,貌似manage list命令只能在swarm manage節點上使用,在其他節點上好像是用不了)
好了,現在集群也已經運行起來了,可以跟第一種方法一樣在其他機器上使用集群了。同樣在sclu085 機器上做測試:
可以看到,成功訪問並且節點信息是正確的。接下來可以把上面的info命令替換成其他docker可執行命令來使用這個曉得Docker集群了。
Swarm調度策略
Swarm在schedule節點運行容器的時候,會根據指定的策略來計算最適合運行容器的節點,目前支持的策略有:spread,binpack,random.
Random顧名思義,就是隨機選擇一個Node來運行容器,一般用作調試用,spread和binpack策略會根據各個節點的可用的CPU,RAM以及正在運行的容器的數量來計算應該運行容器的節點。
在同等條件下,Spread策略會選擇運行容器最少的那台節點來運行新的容器,binpack策略會選擇運行容器最集中的那台機器來運行新的節點(The binpack strategy causes Swarm to optimize for the container which is most packed.)。
使用Spread策略會使得容器會均衡的分布在集群中的各個節點上運行,一旦一個節點掛掉了只會損失少部分的容器。
Binpack策略最大化的避免容器碎片化,就是說binpack策略盡可能的把還未使用的節點留給需要更大空間的容器運行,盡可能的把容器運行在一個節點上面。
Constraint Filter
通過label來在指定的節點上面運行容器。這些label是在地洞docker daemon時指定的,也可以卸載/etc/default/docker這個配置文件里面。
sudo docker run –H 10.13.181.83:2376 run –name redis_083 –d –e constraint:label==083 redis
Affinity Filter
使用-e affinity:container==container_name / container_id –-name container_1可以讓容器container_1緊挨着容器container_name / container_id執行,也就是說兩個容器在一個node上面執行(You can schedule 2 containers and make the container #2 next to the container #1.)
先在一台機器上啟動一個容器
sudo docker -H 10.13.181.83:2376 run --name redis_085 -d -e constraint:label==085 redis
接下來啟動容器redis_085_1,讓redis_085_1緊挨着redis_085容器運行,也就是在一個節點上運行
sudo docker –H 10.13.181.83:2376 run –d –name redis_085_1 –e affinity:container==redis_085 redis
通過-e affinity:image=image_name命令可以指定只有已經下載了image_name的機器才運行容器(You can schedule a container only on nodes where the images are already pulled)
下面命令在只有redis鏡像的節點上面啟動redis容器:
sudo docker –H 100.13.181.83:2376 run –name redis1 –d –e affinity:image==redis redis
下面這條命令達到的效果是:在有redis鏡像的節點上面啟動一個r名字叫做redis的容器,如果每個節點上面都沒有redis容器,就按照默認的策略啟動redis容器。
sudo docker -H 10.13.181.83:2376 run -d --name redis -e affinity:image==~redis redis
Port filter
Port也會被認為是一個唯一的資源
sudo docker -H 10.13.181.83:2376 run -d -p 80:80 nginx
執行完這條命令,任何使用80端口的容器都是啟動失敗。
結束語:
本文詳細介紹了兩種方法來使用Swarm管理Docker集群。但是Swarm是一個比較新的項目,目前還處於研發階段,Swarm的發展十分快速,功能和特性的變更迭代還非常頻繁。因此,可以說Swarm還不推薦被用於生產環境中,但可以肯定的是Swarm是一項很有前途的技術。
最近在學Go,准備抽時間好好研究下Swarm源碼。Go是一門很有前途的語言。
參考資料:Docker官方文檔