Ubuntu环境下KubeEdge安装教程
本文介绍了在两台Ubuntu 18.04.3 LTS虚拟机下从源码开始部署 KubeEdge 1.1.0 集群的过程,云端 Kubernetes 版本为 1.16.0,Golang 版本为1.12.4。
1. 概述
1.1 环境
云端:Ubuntu 18.04.3 LTS,用户名为k8smaster。ip 为 192.168.88.131
边缘端:Ubuntu 18.04.3 LTS,用户名为k8slave1。ip 为 192.168.88.142
KubeEdge 部署需要的组件:(注意,本安装教程假定你已经在云端机器上安装好了k8s集群和docker,并在边缘端机器上安装好了docker)
云端:docker, kubernetes 集群和 KubeEdge 云端核心模块。
边缘端:docker, mqtt 和 KubeEdge 边缘端核心模块。
1.2 依赖
golang:版本1.12.14
k8s版本:v1.16.0
mosquitto:直接通过apt-get安装
KubeEdge:v1.1.0
2. 准备
2.1 创建部署文件目录
创建部署工程目录:
# mkdir /home/kkbill/kubeedge
创建子目录:
# cd /home/kkbill/kubeedge
# mkdir cloud edge certs yamls src
说明:
cloud:云端相关文件,包括 cloudcore 和配置文件。
edge:边缘端相关文件,包括 edgecore 和配置文件。
certs:证书文件。
yamls:一些 yamls 文件。
src:源码目录,存放kubeedge源码。
2.2 KubeEdge 二进制
从官网中下载(本实验版本为kubeedge-v1.1.0-linux-amd64.tar.gz)
2.2.1 Golang环境搭建
(1) 下载golang,并解压
# wget https://studygolang.com/dl/golang/go1.12.14.linux-amd64.tar.gz
# tar -C /usr/local -xzf go1.12.14.linux-amd64.tar.gz
(2) 添加环境变量
在~/.bashrc文件末尾添加:
# vim ~/.bashrc
export GOPATH=/home/kkbill/kubeedge
export PATH=$PATH:/usr/local/go/bin
保存后记得执行 source ~/.bashrc 生效。验证:
# go version
# go version go1.12.14 linux/amd64
2.2.2 下载kubeedge源码
# git clone https://github.com/kubeedge/kubeedge.git $GOPATH/src/github.com/kubeedge/kubeedge
2.2.3 检测gcc是否安装
# gcc --version
如果没有,则自行安装。
2.2.4 编译云端
# cd $GOPATH/src/github.com/kubeedge/kubeedge/
# make all WHAT=cloudcore
生成二进制 cloudcore 文件位于 cloud 目录。拷贝 cloudcore 和同一目录的配置文件(conf目录)到部署工程目录:
# cp -a cloud/cloudcore $GOPATH/cloud/
# cp -a cloud/conf/ $GOPATH/cloud/
在编译的时候遇到了第一个坑,就是版本的问题。由于最新clone下来的版本已经不是v1.1.0了,所以,我们需要把代码切回到v1.1.0版本,操作如下:(如果你在这一步无异常,则跳过)
在 $GOPATH/src/github.com/kubeedge/kubeedge 目录下,执行 git tag,并选择 v1.1.0 即可
# git tag
...
v1.1.0
...
# git checkout v1.1.0 执行完这一句后,代码就会回到v1.1.0版。
2.2.5 编译边缘端
# cd $GOPATH/src/github.com/kubeedge/kubeedge/
# make all WHAT=edgecore
生成二进制 edgecore 文件位于 edge 目录。拷贝二进制及配置文件到部署工程目录:
# cp -a edge/edgecore $GOPATH/edge/
# cp -a edge/conf/ $GOPATH/edge/
这里又遇到了第2个坑,即出现如下错误:
/usr/local/go/pkg/tool/linux_amd64/link: signal: killed
这是由于编译需要较大的内存,而内存不够,造成了OOM。对应的解决办法:增加内存
(1) 创建要作为swap分区的文件:增加1GB大小的交换分区,则命令写法如下,其中的count等于想要的块的数量(bs*count=文件大小)。
# dd if=/dev/zero of=/root/swapfile bs=1M count=1024
(2) 格式化为交换分区文件:
mkswap /root/swapfile #建立swap的文件系统
(3) 启用交换分区文件:
swapon /root/swapfile #启用swap文件
解决这个问题,参考了:
https://forum.golangbridge.org/t/go-build-exits-with-signal-killed/513
https://segmentfault.com/a/1190000012219689
https://www.cnblogs.com/spjy/p/7085389.html
2.3 生成证书
# $GOPATH/src/github.com/kubeedge/kubeedge/build/tools/certgen.sh genCertAndKey edge
# cp -a /etc/kubeedge/* $GOPATH/certs
生成的 ca 和 certs 分别位于 /etc/kubeedge/ca 和 /etc/kubeedge/certs 目录,将其拷贝到部署工程目录的 certs 目录。注意,这是在云端机器执行,所以云端已经有了证书,拷贝到 certs 目录,是为了方便分发到边缘节点。
2.4 拷贝设备模块和设备CRD yaml 文件
# cp //ℎ.//////∗GOPATH/src/github.com/kubeedge/kubeedge/build/crds/devices/∗GOPATH/yamls
2.5 拷贝node.json
# cp //ℎ.////.GOPATH/src/github.com/kubeedge/kubeedge/build/node.jsonGOPATH/cloud
释义:node.json 为节点的配置信息,需要在云端机器执行,作用是将边缘端加入集群(但实际上只是让 k8s 知道有这个节点,还不是真正意义上的加入)
2.6 配置云端节点
打开配置文件 $GOPATH/cloud/conf/controller.yaml ,修改两处 master 的值,将master修改为 k8s 的apiserver的地址,在我的配置中,修改为:https://192.168.88.131:6443
这个地址当然就是云端这台机器的ip,那么端口是怎么来的?你可以从 /etc/kubernetes/manifests/kube-apiserver.yaml 中找到答案,如下图所示:
(当然,这里的前提是你已经装好了kubernetes,但是安装 kubernetes 不在本教程范围。)
这里提醒一下,我在第一次安装的时候,由于自身对k8s也还非常的不了解,还不知道是查看kube-apiserver.yaml,所以错写成了http,这个错误让我废了很长的时间才解决。
另外,还需要将kubeconfig的值修改为:/root/.kube/config
这一步也存在一个坑,如果设置不正确,可能会导致 cloudcore 启动失败,出现如下错误:
E0102 17:53:58.630318 15021 reflector.go:125] github.com/kubeedge/kubeedge/cloud/pkg/devicecontroller/manager/device.go:40: Failed to list *v1alpha1.Device: the server rejected our request for an unknown reason (get devices.devices.kubeedge.io)
E0102 17:53:58.630335 15021 reflector.go:125] github.com/kubeedge/kubeedge/cloud/pkg/devicecontroller/manager/devicemodel.go:40: Failed to list *v1alpha1.DeviceModel: the server rejected our request for an unknown reason (get devicemodels.devices.kubeedge.io)
W0102 17:53:58.632435 15021 controller.go:51] new downstream controller failed with error: the server rejected our request for an unknown reason (get nodes)
这一问题在 https://github.com/kubeedge/kubeedge/issues/1361 有讨论,我也是从这个issue中摸索出了自己的解决方案。
2.7 配置边缘节点
打开配置文件$GOPATH/edge/conf/edge.yaml ,将如下两处ip换成你自己的云端主机的ip。
另外,由于在v1.1.0版本中,边缘节点名称为 fb4ebb70-2783-42b8-b3ef-63e2fd6d242e,这不方便阅读,我们将其修改为edge-node。在edge.yaml文件中把所有 fb4ebb70-2783-42b8-b3ef-63e2fd6d242e 的值替换为 edge-node。
此外,还有非常重要的一点是,注意该文件中 cgroup-driver 字段的值,默认情况下是 cgroupfs,有些文章不说明具体原因就让你将其修改为 sysemd,这是不负责的。这里是否需要修改该字段的值取决于你安装的docker的cgroup-driver是什么,原则就是要保持两者一直,若不一致,就会出现致命的问题。
可以通过 docker info 命令查看已安装的docker的cgroup-driver,确定好后,再决定是否修改edge.yaml 文件中cgroup-driver的值。
这里我也踩过坑,第一次安装时未经检查,就盲目修改了该字段的值,导致最后边缘节点的状态始终是NotReady,这个问题在issue列表中也有讨论,详见 https://github.com/kubeedge/kubeedge/issues/1243 。
2.8 安装mqtt
mqtt只需要在边缘端安装。由于我使用的是ubuntu系统,直接使用apt-get,如下:
# add-apt-repository ppa:mosquitto-dev/mosquitto-ppa // 添加源
# apt-get update // 更新
# apt-get install mosquitto // 安装
3. 部署
前面已经准备好了所需要的配置文件,现在,只需要将证书和边缘端的文件拷贝到边缘机器上,使用 scp 命令进行拷贝。(当然,你也可以在边缘机器上完成上面的2.7节。)
在云端主机上进行操作,192.168.88.142是边缘端的ip。
# ssh 192.168.88.142 "mkdir -p /etc/kubeedge /home/kkbill/kubeedge/edge"
# scp -r GOPATH/certs/* 192.168.88.142:/etc/kubeedge # scp -rGOPATH/certs/* 192.168.88.142:/etc/kubeedge # scp -rGOPATH/edge/* 192.168.88.142:/home/kkbill/kubeedge/edge
这里可能会涉及到一些permission deny的问题,这是由于 scp 命令造成的,这个问题不难,自己解决一下。
3.1 云端
首先进入部署工程目录:cd /home/kkbill/kubeedge
3.1.1 添加边缘端到集群
# kubectl apply -f cloud/node.json
注意:在执行该命令前,务必修改node.json文件的值,如下,把name字段的值由 fb4ebb70-2783-42b8-b3ef-63e2fd6d242e 的值替换为 edge-node。
此时,查看节点状态,边缘端未就绪。如下:
# kubectl get nodes
NAME STATUS ROLES AGE VERSION
edge-node NotReady edge 9s
k8smaster Ready master 15h v1.16.0
3.1.2 创建设备模块和设备CRD
# kubectl apply -f yamls
注意,yamls 目录有2个 yaml 文件,此处指定目录,会自动执行目录所有文件。
3.1.3 运行cloudcore
# cd cloud
# ./cloudcore
3.2 边缘端
该部分在边缘端机器上进行。
首先,在边缘端运行mqtt:
# mosquitto -d -p 1883
然后进入部署工程目录:cd /home/kkbill/kubeedge/edge,并运行 edgecore
# ./edgecore
3.3 验证
在云端查看状态:
# kubectl get nodes
NAME STATUS ROLES AGE VERSION
edge-node Ready edge 8h v1.15.3-kubeedge-v1.1.0
k8smaster Ready master 173d v1.16.0
这个时候,edge-node 的状态就变成了 Ready。到这里,基本上算是搭建完成了。