14_kubernetes_setup/14.1_kubeadm.md
kubeadm 提供了 kubeadm init 以及 kubeadm join 这两个命令,作为快速创建 Kubernetes 集群的常用工具。
版本说明:Kubernetes 版本更新较快 (约每 4 个月一个新版本),本文档基于 Kubernetes 1.36 编写。更完整的安装和兼容性说明请以 Kubernetes 官方 kubeadm 文档 和 containerd 官方文档 为准。
参考安装 Docker 一节添加 apt/yum 源,之后执行如下命令。
# debian 系
$ sudo apt install containerd.io
# rhel 系
$ sudo yum install containerd.io
先生成默认配置文件,然后只调整与 kubeadm 相关的关键项:
$ sudo mkdir -p /etc/containerd
$ containerd config default | sudo tee /etc/containerd/config.toml > /dev/null
打开 /etc/containerd/config.toml,确认 runc 选项使用 systemd cgroup 驱动:
# containerd 2.x(当前默认版本)
[plugins."io.containerd.cri.v1.runtime".containerd.runtimes.runc.options]
SystemdCgroup = true
# containerd 1.x(旧版本)使用以下路径,2.x 亦兼容
# [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
# SystemdCgroup = true
提示:
containerd config default生成的默认配置会自动使用当前版本的正确路径。如果你使用的是 containerd 2.x,配置中的插件路径将以io.containerd.cri.v1.runtime开头;如果仍在使用 1.x,则为io.containerd.grpc.v1.cri。
默认配置里的其它内容通常可以保持不变。修改完成后重启 containerd:
$ sudo systemctl restart containerd
需要在每台机器上安装以下的软件包:
$ K8S_MINOR="v1.36"
$ sudo apt-get update
$ sudo apt-get install -y ca-certificates curl gpg
$ sudo install -m 0755 -d /etc/apt/keyrings
$ curl -fsSL "https://pkgs.k8s.io/core:/stable:/${K8S_MINOR}/deb/Release.key" | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg
$ sudo chmod a+r /etc/apt/keyrings/kubernetes-apt-keyring.gpg
$ echo "deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/${K8S_MINOR}/deb/ /" | sudo tee /etc/apt/sources.list.d/kubernetes.list > /dev/null
$ sudo apt-get update
$ sudo apt-get install -y kubelet kubeadm kubectl cri-tools kubernetes-cni
$ sudo apt-mark hold kubelet kubeadm kubectl
$ K8S_MINOR="v1.36"
$ cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://pkgs.k8s.io/core:/stable:/${K8S_MINOR}/rpm/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://pkgs.k8s.io/core:/stable:/${K8S_MINOR}/rpm/repodata/repomd.xml.key
EOF
$ sudo yum install -y kubelet kubeadm kubectl cri-tools kubernetes-cni
$ cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
overlay
br_netfilter
EOF
$ sudo modprobe overlay
$ sudo modprobe br_netfilter
Kubernetes v1.36 默认要求节点使用 cgroup v2。kubelet 在 cgroup v1 节点上默认会拒绝启动,但管理员可以在 kubelet 配置中设置 failCgroupV1: false 来兼容 cgroup v1(仅建议用于遗留系统过渡期)。验证节点是否支持 cgroup v2:
$ mount | grep cgroup2
如果输出包含 cgroup2,则系统已支持 cgroup v2。对于仍在使用 cgroup v1 的系统(如较旧的 RHEL 8),建议升级内核或更新系统配置以启用 cgroup v2。
kubelet 默认要求禁用 swap,否则可能导致初始化失败或节点无法加入集群。
$ sudo swapoff -a
# 如需永久禁用,可在 /etc/fstab 中注释 swap 对应行
$ cat <<EOF | sudo tee /etc/sysctl.d/99-kubernetes-cri.conf
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
EOF
# 应用配置
$ sysctl --system
为了让 kubelet 正确运行,我们需要对其进行一些必要的配置。
kubelet.service(可选:IPVS 模式)注意:kube-proxy 的 IPVS 模式已在 Kubernetes 1.35 中被标记为弃用,并计划在后续版本中移除。新部署建议使用默认的 iptables 模式或 nftables 模式(Kubernetes 1.31+ 可用)。以下 IPVS 配置仅供需要兼容旧环境的场景参考。
/etc/systemd/system/kubelet.service.d/10-proxy-ipvs.conf 写入以下内容
# 启用 ipvs 相关内核模块(已弃用,建议迁移至 nftables)
[Service]
ExecStartPre=-/sbin/modprobe ip_vs
ExecStartPre=-/sbin/modprobe ip_vs_rr
ExecStartPre=-/sbin/modprobe ip_vs_wrr
ExecStartPre=-/sbin/modprobe ip_vs_sh
执行以下命令应用配置。
$ sudo systemctl daemon-reload
安装配置完成后,我们将分别在 Master 节点和 Worker 节点上进行部署操作。
$ sudo systemctl enable containerd
$ sudo systemctl start containerd
$ sudo kubeadm init \
--image-repository registry.cn-hangzhou.aliyuncs.com/google_containers \
--pod-network-cidr 10.244.0.0/16 \
--cri-socket unix:///run/containerd/containerd.sock \
--v 5 \
--ignore-preflight-errors=all
--pod-network-cidr 10.244.0.0/16 参数与后续 CNI 插件有关,这里以 flannel 为例,若后续部署其他类型的网络插件请更改此参数。执行可能出现错误,例如缺少依赖包,根据提示安装即可。
执行成功会输出
...
[addons] Applied essential addon: CoreDNS
I1116 12:35:13.270407 86677 request.go:538] Throttling request took 181.409184ms, request: POST:https://192.168.199.100:6443/api/v1/namespaces/kube-system/serviceaccounts
I1116 12:35:13.470292 86677 request.go:538] Throttling request took 186.088112ms, request: POST:https://192.168.199.100:6443/api/v1/namespaces/kube-system/configmaps
[addons] Applied essential addon: kube-proxy
Your Kubernetes control-plane has initialized successfully!
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.199.100:6443 --token cz81zt.orsy9gm9v649e5lf \
--discovery-token-ca-cert-hash sha256:5edb316fd0d8ea2792cba15cdf1c899a366f147aa03cba52d4e5c5884ad836fe
在 另一主机 重复 部署 小节以前的步骤,安装配置好 kubelet。根据提示,加入到集群。
$ systemctl enable containerd
$ systemctl start containerd
$ kubeadm join 192.168.199.100:6443 \
--token cz81zt.orsy9gm9v649e5lf \
--discovery-token-ca-cert-hash sha256:5edb316fd0d8ea2792cba15cdf1c899a366f147aa03cba52d4e5c5884ad836fe \
--cri-socket unix:///run/containerd/containerd.sock
所有服务启动后,通过 crictl 查看本地实际运行的容器。这些服务大概分为三类:主节点服务、工作节点服务和其它服务。
CONTAINER_RUNTIME_ENDPOINT=unix:///run/containerd/containerd.sock crictl ps -a
apiserver 是整个系统的对外接口,提供 RESTful 方式供客户端和其它组件调用;
scheduler 负责对资源进行调度,分配某个 pod 到某个节点上;
controller-manager 负责管理控制器,包括 endpoint-controller (刷新服务和 pod 的关联信息) 和 replication-controller (维护某个 pod 的复制为配置的数值)。
proxy 为 pod 上的服务提供访问的代理。将 /etc/kubernetes/admin.conf 复制到 ~/.kube/config
执行 $ kubectl get all -A 查看启动的服务。
由于未部署 CNI 插件,CoreDNS 未正常启动。如何使用 Kubernetes,请参考后续章节。
这里以 flannel 为例进行介绍。
检查 podCIDR 设置
$ kubectl get node -o yaml | grep CIDR
# 输出
podCIDR: 10.244.0.0/16
podCIDRs:
# 注意:v0.28.2 为编写本文档时的最新版本,请根据需要替换为当前版本
# 参见 https://github.com/flannel-io/flannel/releases
$ kubectl apply -f https://raw.githubusercontent.com/flannel-io/flannel/v0.28.2/Documentation/kube-flannel.yml
如果用 kubeadm 部署一个单节点集群,默认情况下无法使用,请执行以下命令解除限制
$ kubectl taint nodes --all node-role.kubernetes.io/control-plane-
# 较旧版本使用 master taint
# $ kubectl taint nodes --all node-role.kubernetes.io/master-
# 恢复默认值
# $ kubectl taint nodes NODE_NAME node-role.kubernetes.io/control-plane=true:NoSchedule
...