注意:本文不討論linux虛擬機的安裝和docker的安裝
1、環境
1.1、宿主機
內核版本:Linux localhost 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt25-2 (2016-04-08) x86_64 GNU/Linux
系統版本:Debian 8
1.2、docker
版本:Docker version 1.9.1, build a34a1d5
鏡像版本:crxy/centos
2、宿主機中創建用戶和分組
2.1、創建docker用戶組
sudo groupadd docker
2.2、添加當前用戶到docker用戶組里
sudo gpasswd -a *** docker 注:***為當前系統用戶名
2.3、重啟docker后台監控進程
sudo service docker restart
2.4、重啟后,看docker服務是否生效
docker version
2.5、如果沒有生效,可以重試重啟系統
sudo reboot
3、Dockerfile創建docker鏡像
3.1創建ssh功能鏡像,並設置鏡像賬號:root密碼:root
cd /usr/local/
mkdir dockerfile
cd dockerfile/
mkdir centos-ssh-root
cd centos-ssh-root
vi Dockerfile 注:docker識別的dockerfile格式Dockerfile(首字母必須大寫)
# 選擇一個已有的os鏡像作為基礎
FROM centos
# 鏡像的作者
MAINTAINER crxy
# 安裝openssh-server和sudo軟件包,並且將sshd的UsePAM參數設置成no
RUN yum install -y openssh-server sudo
RUN sed -i 's/UsePAM yes/UsePAM no/g' /etc/ssh/sshd_config
#安裝openssh-clients
RUN yum install -y openssh-clients
# 添加測試用戶root,密碼root,並且將此用戶添加到sudoers里
RUN echo "root:root" | chpasswd
RUN echo "root ALL=(ALL) ALL" >> /etc/sudoers
# 下面這兩句比較特殊,在centos6上必須要有,否則創建出來的容器sshd不能登錄
RUN ssh-keygen -t dsa -f /etc/ssh/ssh_host_dsa_key
RUN ssh-keygen -t rsa -f /etc/ssh/ssh_host_rsa_key
# 啟動sshd服務並且暴露22端口
RUN mkdir /var/run/sshd
EXPOSE 22
CMD ["/usr/sbin/sshd", "-D"]
創建鏡像命令:
docker build -t=’crxy/centos-ssh-root‘ .
創建完成后查看鏡像生成情況:
docker images
3.2、創建jdk鏡像
注:jdk使用1.7版本及以上版本
cd ..
mkdir centos-ssh-root-jdk
cd centos-ssh-root-jdk
cp ../../jdk-7u80-linux-x64.tar.gz .
vi Dockerfile
#上一步中生成的鏡像
FROM crxy/centos-ssh-root
ADD jdk-7u75-linux-x64.tar.gz /usr/local/
RUN mv /usr/local/jdk1.7.0_75 /usr/local/jdk1.7
ENV JAVA_HOME /usr/local/jdk1.7
ENV PATH $JAVA_HOME/bin:$PATH
創建鏡像命令:
docker build -t=’crxy/centos-ssh-root-jdk‘ .
創建完成后查看鏡像生成情況:
docker images
3.3、根據jdk鏡像創建hadoop鏡像
cd ..
mkdir centos-ssh-root-jdk-hadoop
cd centos-ssh-root-jdk-hadoop
cp ../../hadoop-2.2.0.tar.gz .
vi Dockerfile
#從crxy/centos-ssh-root-jdk版本創建
FROM crxy/centos-ssh-root-jdk
ADD hadoop-2.2.0-src.tar.gz /usr/local
#安裝which軟件包
RUN yum install which
#安裝net-tools軟件包
RUM yum install net-tools
ENV HADOOP_HOME /usr/local/hadoop-2.2.0
ENV PATH $HADOOP_HOME/bin:$PATH
創建鏡像命令:
docker build -t=’crxy/centos-ssh-root-jdk-hadoop‘ .
創建完成后查看鏡像生成情況:
docker images
4、搭建hadoop分布式集群
4.1、hadoop集群規划
master:hadoop0 ip:172.17.0.10
slave1:hadoop1 ip:172.17.0.10
slave2:hadoop2 ip:172.17.0.10
查看docker橋接網卡dcker0
4.2、創建容器並啟動容器,hadoop0、hadoop1、hadoop2
#主節點
docker run --name hadoop0 --hostname hadoop0 -d -P -p 50070:50070 -p 8088:8088 crxy/centos-ssh-root-jdk-hadoop
#node
docker run --name hadoop1 --hostname hadoop1 -d -P crxy/centos-ssh-root-jdk-hadoop
#node
docker run --name hadoop2 --hostname hadoop2 -d -P crxy/centos-ssh-root-jdk-hadoop
查看容器:docker ps -a
4.3、為hadoop集群設置固定ip
4.3.1、下載pipework
https://github.com/jpetazzo/pipework.git
4.3.2、把下載的zip包上傳到宿主機服務器上,解壓,改名字
unzip pipework-master.zip
mv pipework-master pipework
cp -rp pipework/pipework /usr/local/bin/
4.3.3、安裝bridge-utils
yum -y install bridge-utils
4.3.4、給容器設置固定ip
pipework docker0 hadoop0 172.17.0.10/24
pipework docker0 hadoop1 172.17.0.11/24
pipework dcoker0 hadoop2 172.17.0.12/24
4.3.5、驗證ip是否通
4.4、配置hadoop0
4.4.1、鏈接hadoop0
docker exec -it hadoop0 /bin/bash
4.4.2、為hadoop0添加host
vi /etc/hosts
172.17.0.10 hadoop0
172.17.0.11 hadoop1
172.17.0.12 hadoop2
4.4.3、hadoop0上修改hadoop的配置文件
cd /usr/local/hadoop/etc/hadoop-2.2.0
修改四大配置文件:core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml
1)、hadoop-env.sh
#導入環境變量
export JAVA_HOME=/usr/local/jdk1.7
2)、core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop0:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
</configuration>
3)、hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
4)、yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<description>The hostname of the RM.</description>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop0</value>
</property>
</configuration>
5)、mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
4.4.4、格式化hdfs
bin/hdfs namenode -format
4.5、配置hadoop1、hadoop2、
4.5.1、執行4.4配置
4.6、切回到hadoop0,執行ssh免密碼登陸
4.6.1 、配置ssh
cd ~
mkdir .ssh
cd .ssh
ssh-keygen -t rsa(一直按回車即可)
ssh-copy-id -i localhost
ssh-copy-id -i hadoop0
ssh-copy-id -i hadoop1
ssh-copy-id -i hadoop2
在hadoop1上執行下面操作
cd ~
cd .ssh
ssh-keygen -t rsa(一直按回車即可)
ssh-copy-id -i localhost
ssh-copy-id -i hadoop1
在hadoop2上執行下面操作
cd ~
cd .ssh
ssh-keygen -t rsa(一直按回車即可)
ssh-copy-id -i localhost
ssh-copy-id -i hadoop2
4.6.2、配置slaves
vi etc/hadoop/slaves
hadoop1
hadoop2
4.6.3、執行遠程復制
scp -rq /usr/local/hadoop-2.2.0 hadoop1:/usr/local
scp -rq /usr/local/hadoop-2.2.0 hadoop2:/usr/local
5、啟動hadoop集群
5.1、啟動
hadoop namenode -format -clusterid clustername
cd /usr/local/hadoop-2.2.0
sbin/start-all.sh
5.2、驗證集群啟動是否正常
5.2.1、hadoop0
jps
5.2.2、hadoop1
jps
5.2.3、hadoop2
jps
5.3、驗證hafs文件系統狀態
bin/hdfs dfsadmin -report
6、測試hdfs、yarn是否正常
6.1、創建普通文件在master主機上(hadoop0)
1)、查看文件系統中是否有文件存在
hadoop fs -ls
2)、創建dfs文件夾,#默認/user/$USER
hadoop fs -mkdir /user/data
3)、創建普通文件在用戶文件夾
4)、將文件寫入dfs文件系統中
hadoop fs -put /home/suchao/data/1.txt /user/data
5)、在終端顯示
hadoop fs -cat /user/data/1.txt


摘自:http://blog.csdn.net/xu470438000/article/details/50512442