从Ferdora入门Kubernetes
译者:张以法
校对:无
本节内容
前提条件
- 你需要2台或以上安装有Fedora的机器
说明
本文是针对Fedora系统的Kubernetes入门教程。通过手动配置,你将会理解所有底层的包、服务、端口等。
本文只会让一个节点(之前称从节点)工作。多节点需要在Kubernetes之外配置一个可用的网络环境,尽管这个额外的配置条件是显而易见的,(本节也不会去配置)。
Kubernetes包提供了一些服务:kube-apiserver,kube-scheduler,kube-controller-manager,kubelet,kube-proxy。这些服务通过systemd进行管理,配置信息都集中存放在一个地方:/etc/kubernetes。我们将会把这些服务运行到不同的主机上。第一台主机,fed-master,将是Kubernetes的master主机。这台机器上将运行kube-apiserver,kube-controller-manager和kube-scheduler这几个服务,此外,master主机上还将运行etcd(如果etcd运行在另一台主机上,那就不需要了,本文假设etcd和Kubernetesmaster运行在同一台主机上)。其余的主机,fed-node,将是从节点,上面运行kubelet, proxy和docker。
系统信息:
主机:
fed-master = 192.168.121.9
fed-node = 192.168.121.65
准备主机:
- 在所有主机上(fed-master和fed-node)都安装Kubernetes,。这对docker也适用。在fed-master上安装etcd。本文在kubernetes-0.18及之后版本上通过测试。
- yum命令之后的 --enablerepo=update-testing 参数可以保证安装最新的Kubernetes预览版。如果不加这个参数,你安装的版本将是Fedora提供的较旧的稳定版。
- 如果你想获取最新的版本,你可以从Fedora Koji上下载最新的RPM包,然后yum install安装。而不是用下面的命令。
yum -y install --enablerepo=updates-testing kubernetes
- 安装etcd和iptables
yum -y install etcd iptables
- 在所有主机的/etc/hosts文件中加入master和node节点,如果DNS中已经有了主机名,就不需要加了。需要保证fed-master和fed-node之间可以正常通信,可使用ping测试网络是否连通。
echo "192.168.121.9 fed-master
192.168.121.65 fed-node" >> /etc/hosts
- 编辑/etc/kubernetes/config文件,加入以下内容。所有主机都是(包括master和node)。
# Comma separated list of nodes in the etcd cluster
KUBE_MASTER="--master=http://fed-master:8080"
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR="--logtostderr=true"
# journal message level, 0 is debug
KUBE_LOG_LEVEL="--v=0"
# Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV="--allow_privileged=false"
- 禁用master和node上的防火墙,因为如果有其他防火墙规则管理工具的话,docker会无法正常运行。请注意以默认方式安装的fedora服务器上,iptables服务并不存在。
systemctl disable iptables-services firewalld
systemctl stop iptables-services firewalld
配置master主机上Kubernetes服务
- 按照下面的示例编辑/etc/kubernetes/apiserver文件。注意--service-cluster-ip-range参数后跟的IP地址必须是在任何地方都未使用的地址段,这些地址无需路由也无需分配到任何东西上。
# The address on the local server to listen to.
KUBE_API_ADDRESS="--address=0.0.0.0"
# Comma separated list of nodes in the etcd cluster
KUBE_ETCD_SERVERS="--etcd_servers=http://127.0.0.1:4001"
# Address range to use for services
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"
# Add your own!
KUBE_API_ARGS=""
- 编辑/etc/etcd/etcd.conf文件,使得etcd监听除了127.0.0.1之外的所有IP,如果没有做这步,将会产生“connection refused”这样的错误。
ETCD_LISTEN_CLIENT_URLS=http://0.0.0.0:4001
- 启动master上恰当的服务
for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler;do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES
done
- 添加node结点:
- 在Kubernetes的master上创建下面node.json文件:
{
"apiVersion": "v1",
"kind": "Node",
"metadata": {
"name": "fed-node",
"labels":{ "name": "fed-node-label"}
},
"spec": {
"externalID": "fed-node"
}
}
现在在你的Kubernetes集群内部创建一个node对象,执行命令
$ kubectl create -f ./node.json
$ kubectl get nodes
NAME LABELS STATUS
fed-node name=fed-node-label Unknown
请注意上面的命令,它只在内部创建了一个fed-node的引用(原文representation),并不会真的提供fed-node节点。同时,假定fed-node节点(在name中指定的)能够被解析并可从Kubernetes的master节点访问。下面本文将论述如何提供Kubernetes node节点(fed-node)。
配置node节点上的Kubernetes服务
我们需要在节点上配置kubelet
- 按照下面的示例编辑/etc/kubernetes/kubelet文件:
###
# Kubernetes kubelet (node) config
# The address for the info server to serve on (set to 0.0.0.0 or "" for all interfaces)
KUBELET_ADDRESS="--address=0.0.0.0"
# You may leave this blank to use the actual hostname
KUBELET_HOSTNAME="--hostname_override=fed-node"
# location of the api-server
KUBELET_API_SERVER="--api_servers=http://fed-master:8080"
# Add your own!
#KUBELET_ARGS=""
- 启动节点上(fed-node)上恰当的服务
for SERVICES in kube-proxy kubelet docker; do
systemctl restart $SERVICES
systemctl enable $SERVICES
systemctl status $SERVICES
done
- 检测以确认现在集群中fed-master能够看到fed-node,而且状态变为Ready了
kubectl get nodes
NAME LABELS STATUS
fed-node name=fed-node-label Ready
- 节点的删除 如果要想从Kubernetes集群中删除fed-node节点,需要在fed-master上执行下面命令(请别这样做,只是提示删除的方法)
kubectl delete -f ./node.json
你应该完成了吧!
集群现在应该在运行了,启动一个用于测试的Pod吧。
你应该有一个可用的集群,查看101节!