04_Rancher 2.5.3-K8S(自签名证书)高可用集群HA部署-online instal
下次安装,添加: 节点,Docker功能,k8s调优,可参见:https://docs.rancher.cn/docs/rancher2/best-practices/optimize/os/_index 安装说明:这是Rancher v2.5.3版本的在线安装文档,证书采用rancher官方一键脚本生成SSL的自签名证书。
文章目录
事先准备:
一、安装kubernetes
1、初始化环境
1.1、关闭相关服务
1.2、主机名设置
1.3、内核调优
1.4、创建用户并分发秘钥
1.5、安装docker
2、使用rke安装K8S集群(在第一台机器(rancher0)执行)
2.1、安装rke/kubectl/helm
2.2、创建rke文件
2.3、运行rke文件
4、测试集群
5、检查集群状态
6、保存配置文件
二、安装rancher
1、安装heml和kubectl
2、添加 Helm Chart 仓库
3、为 Rancher 创建 Namespace
4、选择证书
5、安装 cert-manager
6、根据选择的 SSL 选项,通过 Helm 安装 Rancher
7、验证 Rancher Server 是否已成功部署
事先准备
服务器规划 服务器使用本地的EXSI,虚拟机具体配置如下:
主机名称 | 系统版本 | 内网ip | 配置 | 功能用途 |
---|---|---|---|---|
rancher01 | CentOS 7.8 | 172.16.7.201 | 2C/8g/300G | rancher01服务器 |
rancher02 | CentOS 7.8 | 172.16.7.202 | 2C/8g/300G | rancher02服务器 |
rancher03 | CentOS 7.8 | 172.16.7.203 | 2C/8g/300G | rancher03服务器 |
rancher | CentOS 7.8 | 172.16.7.200 | 1C/2g/300G | 负载均衡器 |
1. 负载均衡器
nginx,作为负载均衡使用。nginx需要有stream模块 [nginx安装过程](https://www.showdoc.com.cn/963349270507135?page_id=5826127227251464 "安装过程")略,可参考:https://www.showdoc.com.cn/963349270507135?page_id=5826127227251464 nginx配置文件如下:
[root@rancher ~]# cat /etc/nginx/nginx.conf
worker_processes 4;
worker_rlimit_nofile 40000;
events {
worker_connections 8192;
}
stream {
upstream rancher_servers_http {
least_conn;
server 172.16.7.201:80 max_fails=3 fail_timeout=5s;
server 172.16.7.202:80 max_fails=3 fail_timeout=5s;
server 172.16.7.203:80 max_fails=3 fail_timeout=5s;
}
server {
listen 80;
proxy_pass rancher_servers_http;
}
upstream rancher_servers_https {
least_conn;
server 172.16.7.201:443 max_fails=3 fail_timeout=5s;
server 172.16.7.202:443 max_fails=3 fail_timeout=5s;
server 172.16.7.203:443 max_fails=3 fail_timeout=5s;
}
server {
listen 443;
proxy_pass rancher_servers_https;
}
}
2. 各主机配置如下
各主机配置如下:
# 172.16.7.200 #负载均衡器
[root@worker-01 ~]# cat /etc/hosts
172.16.7.204 worker-01.techzsun.com
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.16.7.200 rancher.hzsun.com
# 172.16.7.201 # rancher1
[rancher@rancher01 ~]$ cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.16.7.201 rancher-01.techzsun.com
172.16.7.202 rancher-02.techzsun.com
172.16.7.203 rancher-03.techzsun.com
172.16.7.200 rancher.hzsun.com
# 172.16.7.202 # rancher2
[root@rancher02 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.16.7.201 rancher-01.techzsun.com
172.16.7.202 rancher-02.techzsun.com
172.16.7.203 rancher-03.techzsun.com
172.16.7.200 rancher.hzsun.com
# 172.16.7.203 # rancher3
[root@rancher03 ~]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.16.7.201 rancher-01.techzsun.com
172.16.7.202 rancher-02.techzsun.com
172.16.7.203 rancher-03.techzsun.com
172.16.7.200 rancher.hzsun.com
# 172.16.7.204 # worker1
[root@worker-01 ~]# cat /etc/hosts
172.16.7.204 worker-01.techzsun.com
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.16.7.200 rancher.hzsun.com
worker-02,worker-03与worker-01 相同。
????三台worker主机的/etc/hosts是否也需要添加另外两台机子的IP 与 主机名 对应关系进来。?????如果局域网内没有DNS服务器,是需要,但目前安排时都未添加,也能正常安装成功,后续使用时再关注此项。
一、安装kubernets
1、初始化环境
1.1、关闭相关服务
# 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
# 关闭swap
swapoff -a && sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
# 关闭selinux
setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config
# 关闭邮件服务
systemctl stop postfix && systemctl disable postfix
1.2 主机名设置
cat > /etc/hosts << EOF
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.16.7.201 rancher01
172.16.7.202 rancher02
172.16.7.203 rancher03
172.16.7.200 rancher.hzsun.com
EOF
1.3 内核调优
# 文件打开数
echo -e "root soft nofile 65535\nroot hard nofile 65535\n* soft nofile 65535\n* hard nofile 65535\n" >> /etc/security/limits.conf
sed -i 's#4096#65535#g' /etc/security/limits.d/20-nproc.conf
# kernel
cat >> /etc/sysctl.conf<<EOF
net.ipv4.ip_forward=1
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
vm.swappiness=0
vm.max_map_count=655360
EOF
1.4 安装 docker
在 rancher1,rancher2,rancher3 机器上都要安装docker。 [docker安装过程](https://www.showdoc.com.cn/557523996513244?page_id=3839601638128520 "docker安装过程")略,可参考:https://www.showdoc.com.cn/557523996513244?page_id=3839601638128520
添加 国内 rancher 源 和 加速源
cat >> /etc/docker/daemon.json<<EOF
{
"oom-score-adjust": -1000,
"insecure-registries": ["registry.cn-hangzhou.aliyuncs.com"],
"registry-mirrors" : ["https://dekn3ozn.mirror.aliyuncs.com"],
"storage-driver": "overlay2",
"storage-opts": ["overlay2.override_kernel_check=true"]
}
EOF
说明:
OOMScoreAdjust=-1000
:防止docker服务OOM
registry-mirrors
:公网的加速器地址,可以设置多个,地址需要添加协议头(https或者http)
storage-driver
:使用OverlayFS的overlay2存储驱动。(OverlayFS是一个新一代的联合文件系统,类似于AUFS,但速度更快,实现更简单。Docker为OverlayFS提供了两个存储驱动程序:旧版的overlay,新版的overlay2(更稳定))
重启docker服务:
systemctl restart docker
1.5 创建用户并分发秘钥
# 1、在所有机器(即:rancher+worker)都要创建用户rancher
worker节点虽然root可以运行,但为了安全考虑,建议以非root
useradd rancher
echo "rancher:123456" | chpasswd
usermod -aG docker rancher
# 2、在所有机器授权
[root@rancher1 ~]# vim /etc/sudoers +100
rancher ALL=(ALL) NOPASSWD:ALL
# 3、以下在rancher1机器执行即可
su - rancher
ssh-keygen
ssh-copy-id rancher@172.16.7.201
ssh-copy-id rancher@172.16.7.202
ssh-copy-id rancher@172.16.7.203
2. 使用rke安装K8S集群
说明:在 rancher1 执行
下载 rancher 相关软件 可以使用国内源:
http://mirror.cnrancher.com/
2.1 安装rke/kubectl/helm
2.1.1 安装rke
[rancher@rancher01 ~]# wget http://rancher-mirror.cnrancher.com/rke/v1.2.2/rke_linux-amd64 \
&& chmod +x rke_linux-amd64 \
&& mv rke_linux-amd64 /usr/bin/rke
2.1.2 安装kubectl
[rancher@rancher01 ~]# wget http://rancher-mirror.cnrancher.com/kubectl/v1.19.3/linux-amd64-v1.19.3-kubectl \
&& chmod +x linux-amd64-v1.19.3-kubectl \
&& mv linux-amd64-v1.19.3-kubectl /usr/bin/kubectl
# kubectl命令补全
## CentOS需要安装bash-completion软件包
[rancher@rancher01 ~]# yum install -y bash-completion
# root 使用kubectl补全功能
[rancher@rancher01 ~]# echo 'source <(kubectl completion bash)' >> /root/.bashrc
# rancher使用kubectl补全功能
[rancher@rancher01 ~]# echo 'source <(kubectl completion bash)' >> /home/rancher/.bashrc
# 验证补全命令
退出,重新登录一下即可。命令实例示例:
# kubectl desc<TAB> no<TAB> node<TAB>
2.1.3 安装helm
[rancher@rancher01 ~]# wget http://rancher-mirror.cnrancher.com/helm/v3.4.1/helm-v3.4.1-linux-amd64.tar.gz \
&& tar -zxvf helm-v3.4.1-linux-amd64.tar.gz \
&& cd linux-amd64 \
&& mv helm /usr/sbin/
2.2 创建rke文件
su - rancher
vim rancher-cluster.yml
rancher-cluster.yml内容如下:
nodes:
- address: 172.16.7.201
internal_address: 172.16.7.201 # 节点内网 IP
user: rancher
role: ["controlplane", "etcd", "worker"]
ssh_key_path: /home/rancher/.ssh/id_rsa
- address: 172.16.7.202
internal_address: 172.16.7.202
user: rancher
role: ["controlplane", "etcd", "worker"]
ssh_key_path: /home/rancher/.ssh/id_rsa
- address: 172.16.7.203
internal_address: 172.16.7.203
user: rancher
role: ["controlplane", "etcd", "worker"]
ssh_key_path: /home/rancher/.ssh/id_rsa
services:
etcd:
snapshot: true
creation: 6h
retention: 24h
# 当使用外部 TLS 终止,并且使用 ingress-nginx v0.22或以上版本时,必须。
ingress:
provider: nginx
options:
use-forwarded-headers: "true"
2.3 运行rke文件
rke up --config ./rancher-cluster.yml
如果安装过程中有报错,可以重复执行此命令,重新安装。
完成后,它应该以这样一行结束: Finished building Kubernetes cluster successfully.
4 测试集群
4.1 配置环境变量
# 配置 kubectl
[rancher@rancher1 ~]$ mkdir -p /home/rancher/.kube
[rancher@rancher1 ~]$ cp kube_config_rancher-cluster.yml $HOME/.kube/config
### 4.2 通过kubectl测试您的连接,并查看你所有节点是否处于`Ready`状态
[rancher@rancher-01 ~]$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
172.16.7.201 Ready controlplane,etcd,worker 6m45s v1.19.3
172.16.7.202 Ready controlplane,etcd,worker 6m45s v1.19.3
172.16.7.203 Ready controlplane,etcd,worker 6m45s v1.19.3
5 检查集群状态
[rancher@rancher-01 ~]$ kubectl get pod --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
ingress-nginx default-http-backend-65dd5949d9-cxpx5 1/1 Running 0 6m50s
ingress-nginx nginx-ingress-controller-kqmbz 1/1 Running 0 6m50s
ingress-nginx nginx-ingress-controller-wm6bt 1/1 Running 0 6m50s
ingress-nginx nginx-ingress-controller-zjlmx 1/1 Running 0 6m50s
kube-system calico-kube-controllers-649b7b795b-m5csc 1/1 Running 0 7m4s
kube-system canal-jct48 2/2 Running 0 7m4s
kube-system canal-k552r 2/2 Running 0 7m4s
kube-system canal-n2kcr 2/2 Running 0 7m4s
kube-system coredns-6f85d5fb88-pgg7d 1/1 Running 0 7m
kube-system coredns-6f85d5fb88-xlmsk 0/1 Running 0 31s
kube-system coredns-autoscaler-79599b9dc6-jqnzz 1/1 Running 0 7m
kube-system metrics-server-8449844bf-vjh58 1/1 Running 0 6m55s
kube-system rke-coredns-addon-deploy-job-4zs5v 0/1 Completed 0 7m1s
kube-system rke-ingress-controller-deploy-job-6nb7m 0/1 Completed 0 6m51s
kube-system rke-metrics-addon-deploy-job-rzqq2 0/1 Completed 0 6m56s
kube-system rke-network-plugin-deploy-job-vwzff 0/1 Completed 0 7m26s
等待它完成,需要一点时间。 重复快速多次执行此命令,检查集群是否稳定,如果主机未优化,可能会出现查询结果不稳定的情况。 说明: Pod 是Running或Completed状态。 STATUS 为 Running 的 Pod,READY 应该显示所有容器正在运行 (例如,3/3)。 STATUS 为 Completed的 Pod 是一次运行的作业。对于这些 Pod,READY应为0/1。
6 保存配置文件
将以下文件的副本保存在安全的位置,后期将需要这些文件来维护和升级Rancher实例。
rancher-cluster.yml
: RKE 集群配置文件。
kube_config_rancher-cluster.yml
: 集群的Kubeconfig 文件,此文件包含用于访问集群的凭据。
rancher-cluster.rkestate
: Kubernetes 集群状态文件,此文件包含用于完全访问集群的凭据。
二、安装rancher
1、安装配置Helm
注意:Helm的3.x版本和2.x版本的安装配置是不同的。3.x版本只需要安装好Helm客户端就行,其他的啥都不用配置。如果你用的是Helm的2.x版本,那可以参考rancher中文文档中的安装配置Helm。 Helm是Kubernetes首选的包管理工具。Helm charts为Kubernetes YAML清单文档提供模板语法。使用Helm,我们可以创建可配置的部署,而不仅仅是使用静态文件。
1.1 安装Helm客户端
由于我这里是安装的Helm-v3.x版本,所以不需要配置Helm客户端的访问权限。
1.2 安装Helm Server(Tiller)
由于我这里是安装的Helm-v3.x版本,所以不需要安装Helm Server。
2、Helm安装Rancher
2.1 添加Chart仓库地址
使用helm repo add命令添加Rancher chart仓库地址,访问Rancher tag和Chart版本,替换<CHART_REPO>为您要使用的Helm仓库分支(即latest或stable)。 以rancher用户执行:
helm repo add rancher-stable https://releases.rancher.com/server-charts/stable
helm repo update
2.2 使用自签名SSL证书安装Rancher Server
Rancher Server设计默认需要开启SSL/TLS配置来保证安全,将ssl证书以Kubernetes Secret卷的形式传递给Rancher Server或Ingress Controller。首先创建证书密文,以便Rancher和Ingress Controller可以使用。我这里使用官方提供的一键生成自签名ssl证书。
2.2.1 如果没有自签名ssl证书,可以参考[自签名ssl证书,一键生成ssl证书](https://docs.rancher.cn/docs/rancher2/installation/options/self-signed-ssl/_index/#41-%E4%B8%80%E9%94%AE%E7%94%9F%E6%88%90-ssl-%E8%87%AA%E7%AD%BE%E5%90%8D%E8%AF%81%E4%B9%A6%E8%84%9A%E6%9C%AC "自签名ssl证书,一键生成ssl证书")。
[rancher@rancher-01 ~]$ mkdir ssl
[rancher@rancher-01 ~]$ cd ssl/
先把一键生成ssl证书的脚本另存为create_self-signed-cert.sh
,这里因为脚本的内容太多,就不贴出来了,详见[一键生成ssl证书链接](https://www.showdoc.com.cn/963349270507135?page_id=5828190819902796 "一键生成ssl证书链接")。然后再用这个脚本生成ssl证书
[rancher@rancher-01 ~]$ ./create_self-signed-cert.sh --ssl-domain=rancher.hzsun.com --ssl-trusted-ip=172.16.7.200,172.16.7.201 --ssl-size=2048 --ssl-date=7300
2.2.2 一键生成的ssl自签名证书脚本将自动生成tls.crt、tls.key、cacerts.pem三个文件,文件名称不能修改。
如果使用你自己生成的自签名ssl证书,则需要(我理解:一键生成则不需下面a、b步骤,安装后验证是否正确) a、将服务证书(tls.crt)和CA中间证书(cacerts.pem)链合并到tls.crt文件中, b、将私钥(tls.key)复制到或者重命名为tls.key文件,将CA证书(cacerts.pem)复制或重命名为cacerts.pem。
2.2.3 使用kubectl在命名空间cattle-system中创建tls-ca和tls-rancher-ingress两个secret
# 创建命名空间
[rancher@rancher-01 ~]$ kubectl create namespace cattle-system
# 服务证书和私钥密文
[rancher@rancher-01 ~]$ kubectl -n cattle-system create \
secret tls tls-rancher-ingress \
--cert=/home/rancher/ssl/tls.crt \
--key=/home/rancher/ssl/tls.key
# ca证书密文
[rancher@rancher-01 ~]$ kubectl -n cattle-system create secret \
generic tls-ca \
--from-file=/home/rancher/ssl/cacerts.pem
#查看secret创建是否成功
[rancher@rancher-01 ~]$ kubectl -n cattle-system get secret
NAME TYPE DATA AGE
default-token-dv96q kubernetes.io/service-account-token 3 25s
tls-ca Opaque 1 7s
tls-rancher-ingress kubernetes.io/tls 2 16s
2.2.4 安装Rancher Server
注意: 证书对应的域名需要与hostname选项匹配,否则ingress将无法代理访问Rancher。 rancher.hzsun.com 是后面访问rancher的域名,需要在/etc/hosts文件中添加关联(所有主机):
[rancher@rancher-01 ~]$ echo "172.16.7.200 rancher.hzsun.com" >> /etc/hosts
[rancher@rancher-01 ~]$ echo "172.16.7.201 rancher.hzsun.com" >> /etc/hosts
[rancher@rancher-01 ~]$ echo "172.16.7.202 rancher.hzsun.com" >> /etc/hosts
[rancher@rancher-01 ~]$ echo "172.16.7.203 rancher.hzsun.com" >> /etc/hosts
执行下命令进行安装rancher
[rancher@rancher-01 ~]$ helm install rancher rancher-stable/rancher \
--namespace cattle-system \
--set hostname=rancher.hzsun.com \ #<您自己的域名>
--set ingress.tls.source=secret \
--set privateCA=true \
--version 2.5.3 #指定rancher版本。
输出
WARNING: Kubernetes configuration file is group-readable. This is insecure. Location: /home/rancher/.kube/config
W1202 08:50:40.601801 7226 warnings.go:67] extensions/v1beta1 Ingress is deprecated in v1.14+, unavailable in v1.22+; use networking.k8s.io/v1 Ingress
W1202 08:50:40.667651 7226 warnings.go:67] extensions/v1beta1 Ingress is deprecated in v1.14+, unavailable in v1.22+; use networking.k8s.io/v1 Ingress
NAME: rancher
LAST DEPLOYED: Wed Dec 2 08:50:40 2020
NAMESPACE: cattle-system
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
Rancher Server has been installed.
NOTE: Rancher may take several minutes to fully initialize. Please standby while Certificates are being issued and Ingress comes up.
Check out our docs at https://rancher.com/docs/rancher/v2.x/en/
Browse to https://rancher.hzsun.com
Happy Containering!
命令很快执行完毕,需要等待较长一段时间才能访问URL。
3 验证 Rancher Server 是否已成功部署
3.1 检查 Rancher Server 是否运行成功:
[rancher@rancher-01 ~]$ kubectl -n cattle-system rollout status deploy/rancher
deployment "rancher" successfully rolled out
3.2 通过运行以下命令来检查 deployment 的状态:
[rancher@rancher-01 ~]$ kubectl -n cattle-system get deploy rancher
NAME READY UP-TO-DATE AVAILABLE AGE
rancher 3/3 3 3 16m
本地电脑host映射后,访问:https://rancher.hzsun.com 完成登录
4 创建user-cluster集群
4.1 配置 rancher 国内源
登录rancher 选择 “Global/settings/advanced settings 标签页中,找到 system-default-registry,编辑并输入下面内容:
registry.cn-hangzhou.aliyuncs.com
4.2 添加业务集群
选择 “Global”,在页面右上角点 “Add Cluster” 按钮,进入添加集群页面,找到如下位置:
点击如上图 “Existing nodes” 按钮,如下图:
输入新集群相关信息,如:名称:user-cluster 等信息后,点 "Done" 按钮,完成集群添加操作。
此时,新增的集群状态为:
Waiting for etcd and controlplane nodes to be registered
4.3 添加工作节点
选择 “Global”,在 user-cluster 该行末尾,选择Edit菜单,进入集群编辑页面。 拉到最页面最底部,勾选“etcd,Control Plane Worker”,并复制命令至计算节点中执行。 等待完成。 说明:业务集群如需要高可用,前三台worker主机需添加为
etcd,Control Palne,Worker
复制命令,在各worker节点上执行。等待完成,需要好长一段时间,请耐心等待。
5 错误解决
rancher 2.5.x 版本已不存在与之前的2.4.x版本同样的问题,但出现新的报错了,如下图:
若出现以下错误:
解决办法:
由于我们通过 hosts 文件来添加映射,所以需要为 Agent Pod 添加主机别名(/etc/hosts):
5.1 docker ps -a | grep agent 找到报错日志
ERROR: https://rancher.hzsun.com/ping is not accessible (Could not resolve host: rancher.hzsun.com)
5.2 在日志报错的worker节点安装kubectl
5.3 获取worker集群的配置文件
docker run --rm --net=host -v $(docker inspect kubelet --format '{{ range .Mounts }}{{ if eq .Destination "/etc/kubernetes" }}{{ .Source }}{{ end }}{{ end }}')/ssl:/etc/kubernetes/ssl:ro --entrypoint bash $(docker inspect $(docker images -q --filter=label=io.cattle.agent=true) --format='{{index .RepoTags 0}}' | tail -1) -c 'kubectl --kubeconfig /etc/kubernetes/ssl/kubecfg-kube-node.yaml get configmap -n kube-system full-cluster-state -o json | jq -r .data.\"full-cluster-state\" | jq -r .currentState.certificatesBundle.\"kube-admin\".config | sed -e "/^[[:space:]]*server:/ s_:.*_: \"https://127.0.0.1:6443\"_"' > kubeconfig_admin.yaml
5.4 安装kubectl
参见:本文档的2.1.2 安装kubectl
5.5 直接执行下面命令进行修改 cattle-cluster-agent
rancher 2.5.x 版本与之前的2.4.x版本格式也不同,注意如下内容:
说明:在不同环境下,使用不同 ‘域名’ 和 ‘IP’ 进行rancher安装时,请注意及时修改 ‘域名’ 和 ‘IP’(如:rancher.hzsun.com 和 172.16.7.200)
kubectl --kubeconfig ./kubeconfig_admin.yaml -n cattle-system patch deployments cattle-cluster-agent --patch '{
"spec": {
"template": {
"spec": {
"hostAliases": [
{
"hostnames":
[
"rancher.hzsun.com"
],
"ip": "172.16.7.200"
}
]
}
}
}
}'
kubectl --kubeconfig ./kubeconfig_admin.yaml -n cattle-system patch daemonsets cattle-node-agent --patch '{
"spec": {
"template": {
"spec": {
"hostAliases": [
{
"hostnames":
[
"rancher.hzsun.com"
],
"ip": "172.16.7.200"
}
]
}
}
}
}'
至此,业务集群的问题完美解决。
2.制作自签名证书 http://blog.zhenglin.work/ca/make_key.html 手动制作自签名证书(NGINX用) 利用脚本制作所需证书(可以用在harbor和kubernetes、rancher部署上) RepoTags 0 | tail -1
3.如何在rancher平台宕机情况下,继续使用k8s集群 http://blog.zhenglin.work/k8s/how_to_use_kubectl_noserver.html