原文鏈接:https://blog.csdn.net/u012834750/article/details/80508464
前言
每次在使用Docker啟動Hadoop集群的時候,都需要重新綁定下網卡,固定IP,同時修改/etc/hosts文件,非常麻煩,於是想探尋下原因及優化。
一、原因
/etc/hosts, /etc/resolv.conf和/etc/hostname,容器中的這三個文件不存在於鏡像,在啟動容器的時候,通過mount的形式將這些文件掛載到容器內部。因此,如果在容器中修改這些文件的話,修改部分不會存在於容器的top layer,而是直接寫入這三個物理文件中。
為什么重啟后修改內容不存在了?原因是:每次Docker在啟動容器的時候,通過重新構建新的/etc/hosts文件,這又是為什么呢?原因是:容器重啟,IP地址為改變,hosts文件中原來的IP地址無效,因此理應修改hosts文件,否則會產生臟數據。
二、解決辦法
在每次啟動容器的時候指定IP、hostname、往/etc/hosts里添加hosts,命令如下:
docker run -itd --name hadoop0 --hostname hadoop0 --net network_my --ip 192.168.10.30 --add-host hadoop1:192.168.10.31 --add-host hadoop2:192.168.10.32 -d -P -p 50070:50070 -p 8088:8088 hadoop:master
--hostname :指定hostname; --net : 指定網絡模式 --ip:指定IP --add-host :指定往/etc/hosts添加的host
以上命令需要docker1.9以上版本才行;
啟動完容器后,進入容器查看 /etc/hosts
[root@centos-linux-7 /]# docker exec -it hadoop0 bash
[root@hadoop0 /]# cat /etc/hosts
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
192.168.10.31 hadoop1
192.168.10.32 hadoop2
192.168.10.30 hadoop0
[root@hadoop0 /]#