mingcheng / deploy-k8s-within-aliyun-mirror

使用阿里云镜像快速部署 Kubernetes 集群

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

使用阿里云镜像快速部署 Kubernetes 集群

由于国内「众所周知」的原因,在默认部署 Kubernetes(以下简称 K8S) 以及相关容器服务可能会碰到网络无法联通的问题,因此使用国内的镜像源是非常有必要的,可以减少很多不必要的麻烦。

阿里云其实提供了很多 Linux 发行版以及 Docker、K8S 相关的镜像源,用于加快部署以及更新镜像以及软件包。下面,简单说明下使用的步骤,以便可以一通百通。

更新记录

20220809 增加针对 1.24 部署的补充说明,以及相关问题的应对方案

20220802 增加针对 1.24 部署的说明

20220716 更新的部分组件的版本号,同时配置文件更新到了 v1.23,补充 Debian/Ubuntu 相关的配置说明细则

20210424 rebase 了部分的提交记录,并同时更新配置文件到 K8S v1.21

20210106 由于 K8S 逐渐的将 Docker 与运行时拆分,因此部署的时候考虑到这个因素,所以使用了尝试性质的 CRI-O 运行时,详细见对应的章节

20200212 初始化版本

发行版的镜像源

Debian/Ubuntu

使用 Debian 以及其他的发行版,例如 CentOS 等都可以找到对应的软件镜像源。例如,在 Debian 下可以直接使用 source.list 文件覆盖(记得备份)/etc/apt/sources.list 路径。然后添加 kubernetes.list 文件到路径 /etc/apt/sources.list.d/kubernetes.list

sudo curl -fsSLo /usr/share/keyrings/kubernetes-archive-keyring.gpg https://packages.cloud.google.com/apt/doc/apt-key.gpg

也可以参考直接下载国内的阿里云签名文件(不安全):

curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -

详细 https://www.cnblogs.com/FengZeng666/p/15502138.html

更新源 apt update -y && apt upgrade -y,安装使用详细的可以参考阿里云的介绍,由于上面已经加入了阿里云的 K8S 源,因此直接安装即可:详细参见官方的文档:https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/install-kubeadm/

apt-get update -y && apt-get install -y apt-transport-https gnupg
curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -
apt-get install -y kubelet kubeadm kubectl

注意,阿里云镜像源提供的 K8S 命令都比较新,因此如果需要指定版本(例如 1.23)则使用 apt 对应的命令。

apt install kubelet=1.23.8-00 kubeadm=1.23.8-00 kubectl=1.23.8-00
apt-cache policy kubelet
apt-cache madison vim
apt-mark hold kubelet kubeadm kubectl

同时,也可以安装对应的网络组件,例如 apt install ipvsadm

openSUSE

使用 openSUSE 作为物理机以及虚拟机的运行镜像系统,其自带了 K8S 的软件源(Leap 可能会较老旧),直接使用 zypper 安装即可:

zypper install kubernetes1.23-kubeadm kubernetes1.23-kubelet kubernetes1.23-controller-manager

系统配置

K8S 部署需要主机的包转发支持,所以记得开启相应的内核参数,修改 /etc/sysctl.conf 文件,添加下面主要的配置:

net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1

net.ipv4.ip_forward = 1
net.ipv6.conf.all.forwarding = ◊1

vm.swappiness = 0

下面的配置不是必须的,但是建议也一并开启,至于各项的内容和具体的参数值,详细建议的配置请参考 sysctl.conf 文件

运行时配置

containerd

1.24 以后推荐使用 containerd 作为主要 CRI 运行环境。配置 containerd 其实很简单,默认的命令只需要 containerd config default 即可导出默认的配置。然后,需要注意的几个配置点有:

[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
  // ...
  SystemdCgroup = true

然后更改 kubeadmin-init1.24.yaml 文件中对应的内容,更改为:

apiVersion: kubeadm.k8s.io/v1beta3
kind: InitConfiguration
nodeRegistration:
  criSocket: unix:///run/containerd/containerd.sock

配置 containerd 的镜像源可以参考如下配置(使用阿里云的镜像源):

[plugins]
    [plugins."io.containerd.grpc.v1.cri".registry]
      ...
      [plugins."io.containerd.grpc.v1.cri".registry.mirrors]
      [plugins."io.containerd.grpc.v1.cri".registry.mirrors."docker.io"]
        endpoint = ["https://xxxxxx.mirror.aliyuncs.com"]
      [plugins."io.containerd.grpc.v1.cri".registry.mirrors."k8s.gcr.io"]
        endpoint = ["registry.aliyuncs.com/google_containers"]

参考来源: https://www.cnblogs.com/dudu/p/16249465.html

Docker 配置

Debian 下 Docker 的安装和配置相对来说不会太复杂,软件包方面直接 sudo apt install docker docker-compose 即可。相应的配置可以参考 daemon.json 这个文件,主要需要注意的地方有

"registry-mirrors": ["https://<your-token>.mirror.aliyuncs.com"]

这个字段。针对 Docker 的镜像源阿里云有对应的服务,可以自行申请。

最后使用 systemctl enable docker 开机自启以及使用 docker info 查看安装是否正确。

针对 1.24 及以后版本

Kubernetes 正式废除了针对 docker-shim 的直接支持,因此我们需要自行安装 cri 的中间层,然后再部署。使用 Github Mirantis 官方的即可,详细信息:https://github.com/Mirantis/cri-dockerd ,以及参考:

根据官方的文档安装然后,查看使用 sudo systemctl status cri-docker.service 运行情况。

如果都没有问题,尝试拉取镜像,使用命令(kubeadm 必须为 1.24 版本及以上):

kubeadm config images pull --config kubeadm-init1.24.yaml

如果能拉取,那看起来一切都没问题,我们接下来继续。

CRI-O 配置(可选)

配置文件路径在 /etc/containers/registries.conf ,对应的内容可以参考 registries.conf 文件。详细参考:

初始化 Kubernetes

kubeadm version 即可知道目前安装的版本等相应的信息。注意查看 kubeadm-init.yaml 这个文件( 1.24 以上版本推荐使用 kubeadm-init1.24.yaml 这个文件),注意下面几个参数:

# ...
imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers
networking:
  # ...
  podSubnet: 10.100.0.1/24

分别对应的是镜像库的地址,这里指定阿里云的;以及 Pod 的网域地址,需要和下面 Calico 的地址对应。如果使用 flannel ,则对应的配置改成 podSubnet: "10.244.0.0/16"

然后,使用 kubeadm init --config kubeadm-init.yaml 开始初始化。具体预置的 config 可以使用 kubeadm config print init-defaults 查看。

如果需要集群模式,则加上 --upload-certs 这个参数,具体参见: https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/high-availability/

The --upload-certs flag is used to upload the certificates that should be shared across all the control-plane instances to the cluster.

所以需要加上参数:

kubeadm init --upload-certs --config kubeadm-init.yaml

如果无误,则会提示 nodes 上 kubeadm join 需要的相关信息。如果遗忘了 kubeadm join 命令,可以使用:

kubeadm token create --print-join-command

注意,如果是 1.24 的版本并且使用上述的 cri-dockerd 部署的话,需要额外的指定 cri socker 路径,如:

kubeadm join <your-endpoint> --token <token> \
 --discovery-token-ca-cert-hash <hash> \
  --cri-socket unix:///var/run/cri-dockerd.sock

重新获得,via kubernetes/kubeadm#659 (comment) 然后,就可以使用 kubectl get nodes -A 以及 kubectl get pod -A -o wide 等命令查看 K8S 控制面集群的运行状态了。

安装网络模块

Flannel

当集群初始化完成以后则需要安装网络平面,一般来说使用 Flannel 足矣,直接使用

kubectl apply -f kube-flannel.yml

即可安装,注意 quay.io 有可能存在国内无法拉取的情况,需要额外的注意。

Calico

K8S 的网络模块有很多可以选择,普遍使用 Flannel 比较多,这里我个人使用 Calico 因为它有比较详细的权限控制以及客户端。默认情况下,Calico 使用 192.168.0.0/24 网段,但是上述的 calico/custom-resources.yaml 指定的 Pods 网段为 10.95.0.0/16 所以需要稍微更改下配置:

apiVersion: operator.tigera.io/v1
kind: Installation
metadata:
  name: default
spec:
  # Configures Calico networking.
  calicoNetwork:
    # Note: The ipPools section cannot be modified post-install.
    ipPools:
      - blockSize: 26
        cidr: 10.95.0.0/16
        encapsulation: VXLANCrossSubnet
        natOutgoing: Enabled
        nodeSelector: all()

更详细的信息查看官方网站: https://www.projectcalico.org/ 直接使用 kubectl apply -f calico/custom-resources.yaml 即可安装网络模块,然后等待一段时间后查看各个 Pods 的运行情况。

先查看 CoreDNS 的运行情况:

for p in $(kubectl get pods --namespace=kube-system -l K8S-app=kube-dns -o name); do kubectl logs --namespace=kube-system $p; done

如果没有报错,则移除 taint 以便在 kube-system 这个 namespace 上部署相关的工具 Pod 。

kubectl taint nodes --all node-role.kubernetes.io/master-

(1.24 版本以后,使用)

kubectl taint node --all node-role.kubernetes.io/master:NoSchedule-

然后测试 DNS、网络时候正常,先部署 dnsutils 这个 Pod 到 kube-system 这个 namespce:

kubectl apply -f example/hello.yaml

部署完成,Pod 的状态 Ready 以后,分别执行

kubectl exec -it dnsutils -- cat /etc/resolv.conf
kubectl exec -it dnsutils -- nslookup kubernetes.default

说明网络已经部署完成,同时可以正常使用了。

验证 Kubernetes

然后在各个 Node 上使用 kubeadm join 加入集群和部署 kubelet 相关的进程。这里有个简单的使用 nginx 测试集群的情况。

kubectl apply -f examples/nginx.yaml

然后使用 port-forward 或者使用 NodePort 的方式查看端口是否正常返回数据,以便判断运行是否正常。

安装组件(可选)

基本的集群安装好以后,可能需要安装各种的支持组件,建议以下内容根据自身的需要和具体情况去酌情考虑。

Metrics Server

具体的安装信息可以参见官网:https://github.com/kubernetes-sigs/metrics-server ,同时需要做些更改。将 Server 的启动参数修改为内部,同时不需要 https 验证:

metadata:
  labels:
    k8s-app: metrics-server
spec:
  containers:
  - args:
    // ...
    - --kubelet-preferred-address-types=InternalIP
    - --kubelet-insecure-tls

具体请参见 metrics-server.yaml 这个文件。

Dashboard

首先使用 admin-role.yaml 文件生成 admin 权限的 token,kubectl apply -f admin-role.yaml。然后,获取 admin token,参考命令:

TOKEN_NAME=$(kubectl -n kube-system get secret | grep admin-token | awk '{print $1}')
kubectl -n kube-system get secret $TOKEN_NAME -o jsonpath={.data.token} | base64 -d

安装 Dashboard,具体参见。项目中有 dashboard.yaml 可以供参考:

https://kubernetes.io/docs/tasks/access-application-cluster/web-ui-dashboard/

接下来,使用先前生成的 admin-role.yaml 生成的 token 即可登录。

KubeSphere

KubeSphere 是国内青云推出的针对 K8s 比较易用的 Web 端,详细的可以参考其官方的安装文档 https://kubesphere.io/ 。这里主要说明的是,KubeSphere 相对安装的组件比较多,因此可能在配置不是很好的集群中,可能会影响应用的执行性能。

MetalLB

具体的文件和配置在 metallb 目录中,没有使用 Ingress 是因为需求的缘故,更需要 TCP 端口的汇聚和输出,而七层应用这块交给业务配置。

OpenELB

详细可以参考文档 https://openelb.io/docs/getting-started/installation/install-openelb-on-kubernetes/ ,使用 Helm 部署方式:

helm repo add test https://charts.kubesphere.io/test
helm repo update
helm install openelb test/openelb

或者直接使用 kubectl apply -f openelb/openelb.yaml 命令,然后针对具体的本地配置 EIP:

apiVersion: network.kubesphere.io/v1alpha2
kind: Eip
metadata:
  name: eip-pool
  annotations:
    eip.openelb.kubesphere.io/is-default-eip: "true"
spec:
  address: 172.16.0.90-172.16.0.99
  protocol: layer2
  disable: false
  interface: enp1s0

然后,对应的 Pod 验证无误以后执行 kubectl apply -f openelb/server.yaml 更新部署原先部署的 nginx deployment 文件看看对应接口参数有无暴露出来。

附加信息

Minikube

minikube 官方的说明都已经包含了如何使用阿里云的镜像服务(这属于文化输出了):

minikube start --image-repository=registry.cn-hangzhou.aliyuncs.com/google_containers --kubernetes-version='stable'

注意事项

kubeadm reset

一般来说,reset 能够初始化大部分的配置,同时能够尽可能的恢复原有的状态,如果使用多个 cri 那么指定下对应的 cri 参数:

kubeadm reset -f --cri-socket unix:///run/containerd/containerd.sock

集群从 1.23 升级到 1.24 的 Warning 的问题

主要是没有配置 criSocket 的问题,如:

Usage of CRI endpoints without URL scheme is deprecated and can cause kubelet errors in the future.
Automatically prepending scheme "unix" to the "criSocket" with value "/var/run/dockershim.sock".
Please update your configuration!

根据提示 kubeadm 更新的时候加上配置即可,以下文件保存为 config.yaml

apiVersion: kubeadm.k8s.io/v1beta3
kind: InitConfiguration
nodeRegistration:
  criSocket: unix:///run/containerd/containerd.sock
---
apiVersion: kubeadm.k8s.io/v1beta3
kind: JoinConfiguration
nodeRegistration:
  criSocket: unix:///run/containerd/containerd.sock

然后 kubeadm upgrade apply --config config.yaml 即可。

SIGTERM doesn't kill containerd-shims

containerd/containerd#386 (comment)

Calico Node 健康检查不通过

如果 Node 上存在多个网卡,或者网卡的名字不标准,可以使用显式的方式指定 Calico 根据网卡地址获取地址,例如

kubectl set env daemonset/calico-node -n calico-system IP_AUTODETECTION_METHOD=interface=eth0

注意,这里的示例是本机的网卡端口为 eth0,你也可以指定多个,例如:

kubectl set env daemonset/calico-node -n calico-system "IP_AUTODETECTION_METHOD=interface=eth.*|enp.*|bond.*|br.*"

具体参见 https://projectcalico.docs.tigera.io/networking/ip-autodetection

istio 兼容性问题

使用 apt 阿里云源安装的 K8S 比较新,目前为 1.18 版本,这个版本和 Istio 1.5.2 有冲突,需要等待版本更新才能正常安装。详见:istio/istio#22215 (comment) 已解决

找回 join 命令

如果忘记了 join 命令,可以使用 kubeadm token create --print-join-command 命令加入节点。如果忘记控制面的命令,则比较麻烦一点,先重置 certificate-key:

certificate-key = kubeadm init phase upload-certs --upload-certs

(kubeadm token create --print-join-command) \
--control-plane \
--certificate-key $certificate-key

然后组合命令,再到节点上执行即可。注意,在某些版本下如果没有指定 cri ,那么还是会报错了,提供对应的参数即可,例如:

kubeadm join <your-endpoint>:6443 --token <token> \
 --discovery-token-ca-cert-hash <hash> \
  --cri-socket unix:///var/run/cri-dockerd.sock

安全删除控制面

注意,如果只是 kubectl delete node 只会删除节点,但比不会让其他的 etcd 退出节点,因此需要在其他的 etcd 节点中手工执行删除命令,在对应的 Pod 中执行:

etcdctl --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/peer.crt --key=/etc/kubernetes/pki/etcd/peer.key --endpoints <https://your-etcd-endpoint:2379> member list

etcdctl --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/peer.crt --key=/etc/kubernetes/pki/etcd/peer.key --endpoints <https://your-etcd-endpoint:2379> member remove <464c2ab521decd41>

参考链接

About

使用阿里云镜像快速部署 Kubernetes 集群

License:GNU General Public License v3.0