diff --git a/.vuepress/components/StarGazer.vue b/.vuepress/components/StarGazer.vue index 0137968..8c3c2a7 100644 --- a/.vuepress/components/StarGazer.vue +++ b/.vuepress/components/StarGazer.vue @@ -4,8 +4,7 @@ title="感谢阅读" :visible.sync="dialogVisible" width="50%" - :append-to-body ="true" - :before-close="handleClose"> + :append-to-body ="true"> 如果这篇文档有帮到您,劳烦移步 github 给一个 star,谢谢! 一会儿再说 @@ -33,18 +32,11 @@ export default { this.waitAMoment() }, methods: { - handleClose(done) { - this.$confirm('确认关闭?') - .then(_ => { - done(); - }) - .catch(_ => {}); - }, waitAMoment() { + this.dialogVisible = false if (localStorage.getItem('stared') === 'true') { return } - this.dialogVisible = false let _this = this setTimeout(_ => { _this.dialogVisible = true diff --git a/.vuepress/public/install-script/init-master.sh b/.vuepress/public/install-script/init-master.sh index 4e838c3..f8251df 100644 --- a/.vuepress/public/install-script/init-master.sh +++ b/.vuepress/public/install-script/init-master.sh @@ -3,7 +3,7 @@ # 只在 master 节点执行 # 查看完整配置选项 https://godoc.org/k8s.io/kubernetes/cmd/kubeadm/app/apis/kubeadm/v1beta2 -rm -rf ./kubeadm-config.yaml +rm -f ./kubeadm-config.yaml cat < ./kubeadm-config.yaml apiVersion: kubeadm.k8s.io/v1beta2 kind: ClusterConfiguration @@ -27,6 +27,7 @@ cp -i /etc/kubernetes/admin.conf /root/.kube/config # 安装 calico 网络插件 # 参考文档 https://docs.projectcalico.org/v3.8/getting-started/kubernetes/ +rm -f calico.yaml wget https://docs.projectcalico.org/v3.8/manifests/calico.yaml sed -i "s#192\.168\.0\.0/16#${POD_SUBNET}#" calico.yaml kubectl apply -f calico.yaml diff --git a/.vuepress/public/kuboard.rp b/.vuepress/public/kuboard.rp index 442a1f9..055da5a 100644 Binary files a/.vuepress/public/kuboard.rp and b/.vuepress/public/kuboard.rp differ diff --git a/install/install-k8s.md b/install/install-k8s.md index a2ee640..cc490b6 100644 --- a/install/install-k8s.md +++ b/install/install-k8s.md @@ -10,7 +10,7 @@ * **持续不断地更新和完善** * 始终有最新的 Kubernetes 稳定版安装文档,当前版本 v1.15.2 - * 当前已更新了 32 次 , [查看更新历史](https://github.com/eip-work/kuboard-press/commits/master/install/install-k8s.md) + * 当前已更新了 35 次 , [查看更新历史](https://github.com/eip-work/kuboard-press/commits/master/install/install-k8s.md) ![image-20190806070341727](./install-k8s.assets/image-20190806070341727.png) @@ -168,7 +168,7 @@ kubectl get nodes ### 获得 join命令参数 -**在 master 节点 demo-master-a-1 节点执行** +**在 master 节点上执行** ``` sh # 只在 master 节点执行 @@ -183,7 +183,6 @@ kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt --discovery ``` - ### 初始化worker **针对所有的 worker 节点执行** @@ -200,7 +199,7 @@ kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt --discovery ### 检查初始化结果 -在 master 节点 demo-master-a-1 上执行 +在 master 节点上执行 ``` sh # 只在 master 节点执行 @@ -312,5 +311,3 @@ kubectl apply -f https://kuboard.cn/install-script/nginx-ingress.yaml ::: tip * Kubernetes 初学者,[点击这里获取 Kubernetes 学习路径](/overview/#kubernetes-%E5%88%9D%E5%AD%A6%E8%80%85) ::: - - diff --git a/install/install-kubernetes.md b/install/install-kubernetes.md index 2acbe66..45b3cd4 100644 --- a/install/install-kubernetes.md +++ b/install/install-kubernetes.md @@ -8,240 +8,74 @@ kubernetes 安装有多种选择,本文档描述的集群安装具备如下特点: -* Kubernetes 1.15.1 +* Kubernetes 1.15.2 + * calico 3.8 + * nginx-ingress 1.5.3 * Docker 18.09.7 * 三个 master 组成主节点集群,通过内网 loader balancer 实现负载均衡 * 多个 worker 组成工作节点集群,通过外网 loader balancer 实现负载均衡 -* 使用 calico 作为网络插件 -* 使用 nginx-ingress 作为 kubernetes ingress controller -[领取阿里云最高2000元红包](https://promotion.aliyun.com/ntms/yunparter/invite.html?userCode=obezo3pg) - -下图为 kubernetes 安装的拓扑图 +安装后的拓扑图如下:下载拓扑图源文件 使用Axure RP 9.0可打开该文件 ![image-20190808230847411](./install-kubernetes.assets/image-20190808230847411.png) +* **在线答疑** QQ 群 + + ![kuboard_qq.png](../overview/README.assets/kuboard_qq.png) # 安装步骤 +## 检查 centos / hostname -## 制作标准机镜像 +``` sh +# 在 master 节点和 worker 节点都要执行 +cat /etc/redhat-release -通过使用标准机镜像,可以 - -- **避免重复执行对测试机安装必要软件的过程** -- **以一种相对标准化的过程管理测试机的维护** - -标准机镜像中预装了如下内容: - - - docker - - kubernetes images - -本文档描述的安装过程已基于 centos 7.6 验证 - -标准机镜像的制作过程描述如下: - -### 安装docker - -**卸载旧版本** - -```bash -sudo yum remove docker \ - docker-client \ - docker-client-latest \ - docker-common \ - docker-latest \ - docker-latest-logrotate \ - docker-logrotate \ - docker-selinux \ - docker-engine-selinux \ - docker-engine +# 此处 hostname 的输出将会是该机器在 Kubernetes 集群中的节点名字 +hostname ``` -**下载依赖包及安装包** +**操作系统兼容性** -```bash -wget https://download.docker.com/linux/centos/7/x86_64/stable/Packages/containerd.io-1.2.6-3.3.el7.x86_64.rpm +| CentOS 版本 | 本文档是否兼容 | 备注 | +| ----------- | --------------------------------------- | ----------------------------------- | +| 7.6 | 😄 | 已验证 | +| 7.5 | 😄 | 已验证 | +| 7.4 | 🤔 | 待验证 | +| 7.3 | 🤔 | 待验证 | +| 7.2 | 😞 | 已证实会出现 kubelet 无法启动的问题 | -wget https://download.docker.com/linux/centos/7/x86_64/stable/Packages/docker-ce-cli-18.09.7-3.el7.x86_64.rpm +## 安装 docker / kubelet + +使用 root 身份在所有节点执行如下代码,以安装软件: +- docker +- nfs-utils +- kubectl / kubeadm / kubelet + +:::: tabs type:border-card + +::: tab 快速安装 lazy + +``` sh +# 在 master 节点和 worker 节点都要执行 + +curl -sSL https://kuboard.cn/install-script/install-kubelet.sh | sh -wget https://download.docker.com/linux/centos/7/x86_64/stable/Packages/docker-ce-18.09.7-3.el7.x86_64.rpm ``` -**安装** +::: -```bash -sudo yum install -y containerd.io-1.2.6-3.3.el7.x86_64.rpm -sudo yum install -y docker-ce-cli-18.09.7-3.el7.x86_64.rpm -sudo yum install -y docker-ce-18.09.7-3.el7.x86_64.rpm -sudo systemctl enable docker -``` - -**启动 docker 服务** - -```bash -sudo systemctl start docker -``` - -**检查 docker 版本** - -```bash -docker version -``` - - - -**参考文档** - -https://docs.docker.com/install/linux/docker-ce/centos/ - -https://docs.docker.com/install/linux/linux-postinstall/ - - - -### 安装 nfs-utils - -**执行安装命令** - -```bash -sudo yum install nfs-utils -``` - -必须先安装 nfs-utils 才能挂载 nfs 网络存储 - - - -### K8S基本配置 - -**配置K8S的yum源** - -```bash -cat < /etc/yum.repos.d/kubernetes.repo -[kubernetes] -name=Kubernetes -baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 -enabled=1 -gpgcheck=0 -repo_gpgcheck=0 -gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg - http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg -EOF -``` - -**关闭swap、防火墙** - -```bash -swapoff -a -``` - -**关闭SeLinux** - -```bash -setenforce 0 -``` - -**修改 /etc/sysctl.conf** - -```vim /etc/sysctl.conf``` - -向其中添加 - -``` -net.ipv4.ip_forward = 1 -net.bridge.bridge-nf-call-ip6tables = 1 -net.bridge.bridge-nf-call-iptables = 1 -``` - -如下图所示 - -![image-20190715085036593](./install-kubernetes.assets/image-20190715085036593.png ':size=600x445') - - - -**安装kubelet、kubeadm、kubectl** - -```bash -yum install -y kubelet-1.15.0 kubeadm-1.15.0 kubectl-1.15.0 -``` - - - -**修改docker Cgroup Driver为systemd** - -```vim /usr/lib/systemd/system/docker.service``` - -向其中他添加 - -```--exec-opt native.cgroupdriver=systemd``` - -如下图所示 - -![屏幕快照 2019-07-15 09.01.21](./install-kubernetes.assets/image2019-07-15_09.01.21.png ':size=1000x326') - - - -重启 docker - -``` -systemctl daemon-reload -systemctl restart docker -``` - - - -**启动kubelet** - -```bash -systemctl enable kubelet && systemctl start kubelet -``` - - - -**加载 kubernetes 镜像** - -由于k8s服务相关镜像在国外镜像源,国内无法访问 - -执行以下命令添加docker k8s国内镜像源 - -```bash -curl -sSL https://get.daocloud.io/daotools/set_mirror.sh | sh -s http://f1361db2.m.daocloud.io - -systemctl restart docker -``` - -**拉取k8s相关镜像** - -```bash -docker pull mirrorgooglecontainers/kube-apiserver:v1.15.0 -docker pull mirrorgooglecontainers/kube-controller-manager:v1.15.0 -docker pull mirrorgooglecontainers/kube-scheduler:v1.15.0 -docker pull mirrorgooglecontainers/kube-proxy:v1.15.0 -docker pull mirrorgooglecontainers/pause:3.1 -docker pull mirrorgooglecontainers/etcd:3.3.10 -docker pull coredns/coredns:1.3.1 -``` - -**更改镜像名为k8s官网镜像** - -```bash -docker tag d235b23c3570 k8s.gcr.io/kube-proxy:v1.15.0 -docker tag 201c7a840312 k8s.gcr.io/kube-apiserver:v1.15.0 -docker tag 2d3813851e87 k8s.gcr.io/kube-scheduler:v1.15.0 -docker tag 8328bb49b652 k8s.gcr.io/kube-controller-manager:v1.15.0 -docker tag da86e6ba6ca1 k8s.gcr.io/pause:3.1 -docker tag eb516548c180 k8s.gcr.io/coredns:1.3.1 -docker tag 2c4adeb21b4f k8s.gcr.io/etcd:3.3.10 -``` - - - -**制作镜像** - -请参考阿里云基于ECS [制作虚拟机镜像](https://help.aliyun.com/document_detail/35109.html?spm=5176.2020520101.0.0.75fc4df5mtdFmV) 的文档 +::: tab 手动安装 lazy +手动执行以下代码,效果与快速安装完全相同。 +<<< @/.vuepress/public/install-script/install-kubelet.sh +::: warning +如果此时执行 `service status kubelet` 命令,将得到 kubelet 启动失败的错误提示,请忽略此错误,因为必须完成后续步骤中 kubeadm init 的操作,kubelet 才能正常启动 +::: +:::: ## 初始化API Server @@ -249,7 +83,7 @@ docker tag 2c4adeb21b4f k8s.gcr.io/etcd:3.3.10 监听端口:6443 / TCP -后端资源组:包含 apple-master-a-1, apple-master-b-1, apple-master-b-2 +后端资源组:包含 demo-master-a-1, demo-master-b-1, demo-master-b-2 后端端口:6443 @@ -259,152 +93,146 @@ docker tag 2c4adeb21b4f k8s.gcr.io/etcd:3.3.10 ### 初始化第一个master节点 -在 apple-master-a-1机器上执行 -**配置 apiserver.apple 的域名** +::: tip +* 以 root 身份在 demo-master-a-1 机器上执行 +* 初始化 master 节点时,如果因为中间某些步骤的配置出错,想要重新初始化 master 节点,请先执行 `kubeadm reset` 操作 +::: -```bash -sudo -i -echo "x.x.x.x apiserver.apple" >> /etc/hosts +::: warning +* POD_SUBNET 所使用的网段不能与 ***master节点/worker节点*** 所在的网段重叠。该字段的取值为一个 CIDR 值,如果您对 CIDR 这个概念还不熟悉,请不要修改这个字段的取值 10.100.0.1/20 +::: + +:::: tabs type:border-card + +::: tab 快速初始化 lazy + +在第一个 master 节点 demo-master-a-1 上执行 + +``` sh +# 只在 master 节点执行 +# 替换 x.x.x.x 为 ApiServer LoadBalancer 的 IP 地址 +export APISERVER_IP=x.x.x.x +# 替换 apiserver.demo 为 您想要的 dnsName +export APISERVER_NAME=apiserver.demo +export POD_SUBNET=10.100.0.1/20 +echo "${APISERVER_IP} ${APISERVER_NAME}" >> /etc/hosts +curl -sSL https://kuboard.cn/install-script/init-master.sh | sh ``` -> 请替换其中的 x.x.x.x 为您的负载均衡服务器的实际 ip 地址 +::: +::: tab 手工初始化 lazy - -**创建 /root/k8s/kubeadm-config.yaml** - -```yaml -apiVersion: kubeadm.k8s.io/v1beta1 -kind: ClusterConfiguration -kubernetesVersion: v1.14.3 -controlPlaneEndpoint: "apiserver.apple:6443" - +``` sh +# 只在 master 节点执行 +# 替换 x.x.x.x 为 ApiServer LoadBalancer 的 IP 地址 +export APISERVER_IP=x.x.x.x +# 替换 apiserver.demo 为 您想要的 dnsName +export APISERVER_NAME=apiserver.demo +export POD_SUBNET=10.100.0.1/20 +echo "${APISERVER_IP} ${APISERVER_NAME}" >> /etc/hosts ``` +<<< @/.vuepress/public/install-script/init-master.sh + +::: + +:::: -**初始化 apiserver** +**检查 master 初始化结果** -```bash -kubeadm init --config=/root/k8s/kubeadm-config.yaml --upload-certs +``` sh +# 只在 master 节点执行 -``` +# 执行如下命令,等待 3-10 分钟,直到所有的容器组处于 Running 状态 +watch kubectl get pod -n kube-system -o wide -执行结果如下图所示: - -![image2019-6-10_15-36-29](./install-kubernetes.assets/image2019-6-10_15-36-29.png) - -**初始化 gitlab-runner 用户的 kubectl 配置** - -```bash -rm -rf /home/gitlab-runner/.kube/ -mkdir /home/gitlab-runner/.kube/ -cp -i /etc/kubernetes/admin.conf /home/gitlab-runner/.kube/config -chown -R gitlab-runner:gitlab-runner /home/gitlab-runner/.kube -``` - - - -**安装 calico** - -(需要在安全组–ServerFarm需要为集群服务器器端口6443建立安全组规则) - -```bash -su - gitlab-runner -kubectl apply -f \ - https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/hosted/kubernetes-datastore/calico-networking/1.7/calico.yaml -``` - -> 安装calico, 请参考https://docs.projectcalico.org/v3.6/getting-started/kubernetes/ - - - -**等待calico安装就绪:** - -执行如下命令,等待3-10分钟,直到所有的容器组处于 Running 状态 - -```sh -watch kubectl get pod -n kube-system -``` - - - -### 初始化第二、三个master节点 - -在 apple-master-b-1 和 apple-master-b-2 机器上执行 - -```bash -sudo -i -echo "x.x.x.x apiserver.apple" >> /etc/hosts -``` - - - -执行 (以下命令行在初始化 apple-master-a-1 时,被打印在控制台上,执行时应该使用控制台打印出的命令参数) - -```bash -kubeadm join apiserver.apple:6443 --token ejwx62.vqwog6il5p83uk7y \ ---discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 \ ---experimental-control-plane --certificate-key 70eb87e62f052d2d5de759969d5b42f372d0ad798f98df38f7fe73efdf63a13c -``` - - - -### 检查 apiserver初始化结果 - -在第一个master节点 apple-master-a-1 上执行 - -```bash -sudo -i -su - gitlab-runner +# 查看 master 节点初始化结果 kubectl get nodes ``` +### 初始化第二、三个master节点 +在 demo-master-a-1 上执行 + +```sh +# 只在 demo-master-a-1 节点执行 +kubeadm init phase upload-certs --upload-certs +``` + +输出结果如下: + +``` + +``` + +在 demo-master-b-1 和 demo-master-b-2 机器上执行 + +``` sh +# 只在 demo-master-b-1 和 demo-master-b-2 节点执行 +# 替换 x.x.x.x 为 ApiServer LoadBalancer 的 IP 地址 +export APISERVER_IP=x.x.x.x +# 替换 apiserver.demo 为 前面已经使用的 dnsName +export APISERVER_NAME=apiserver.demo +echo "${APISERVER_IP} ${APISERVER_NAME}" >> /etc/hosts +``` + + +执行 (替换参数) + +```bash +kubeadm join apiserver.demo:6443 --token ejwx62.vqwog6il5p83uk7y \ +--discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 \ +--control-plane --certificate-key 70eb87e62f052d2d5de759969d5b42f372d0ad798f98df38f7fe73efdf63a13c +``` + +**检查 master 初始化结果** + +``` sh +# 只在 demo-master-a-1 节点执行 +# 查看 master 节点初始化结果 +kubectl get nodes +``` ## 初始化 worker节点 ### 获得 join命令参数 -**在第一个master节点 apple-master-a-1 节点执行** +**在第一个 master 节点 demo-master-a-1 节点执行** ```bash -sudo -i kubeadm token create --print-join-command ``` 可获取kubeadm join 命令及参数,如下所示 ```bash -kubeadm join apiserver.apple:6443 --token mpfjma.4vjjg8flqihor4vt --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 +kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 ``` - ### 初始化worker **针对所有的 worker 节点执行** -```bash -sudo -i -echo "x.x.x.x apiserver.apple" >> /etc/hosts -kubeadm join apiserver.apple:6443 --token mpfjma.4vjjg8flqihor4vt --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 +```sh +# 只在 worker 节点执行 +# 替换 ${APISERVER_IP} 为 ApiServer LoadBalancer 的 IP 地址 +# 替换 ${APISERVER_NAME} 为 前面已经使用的 dnsName +echo "${APISERVER_IP} ${APISERVER_NAME}" >> /etc/hosts + +# 替换为前面 kubeadm token create --print-join-command 的输出结果 +kubeadm join apiserver.demo:6443 --token mpfjma.4vjjg8flqihor4vt --discovery-token-ca-cert-hash sha256:6f7a8e40a810323672de5eee6f4d19aa2dbdb38411845a1bf5dd63485c43d303 ``` -> * 将 x.x.x.x 替换为 loader balancer 的实际 ip -> -> * 将 kubeadm join 命令后的参数替换为上一个步骤中实际从 apple-master-a-1 节点获得的参数 +### 检查 worker 初始化结果 +在第一个master节点 demo-master-a-1 上执行 - -### 检查 apiserver初始化结果 - -在第一个master节点 apple-master-a-1 上执行 - -```bash +```sh sudo -i -su - gitlab-runner kubectl get nodes ``` @@ -412,62 +240,73 @@ kubectl get nodes ## 移除 worker 节点 -> 正常情况下,您无需移除 worker 节点 +::: warning +正常情况下,您无需移除 worker 节点 +::: 在准备移除的 worker 节点上执行 -```bash -sudo -i +```sh kubeadm reset ``` -在第一个 master 节点 apple-master-a-1 上执行 +在第一个 master 节点 demo-master-a-1 上执行 -```bash -sudo -i -su - gitlab-runner -kubectl delete node apple-worker-x-x +```sh +kubectl delete node demo-worker-x-x ``` -> * 将 apple-worker-x-x 替换为要移除的 worker 节点的名字 -> * worker 节点的名字可以通过在第一个 master 节点 apple-master-a-1 上执行 kubectl get nodes 命令获得 - +> * 将 demo-worker-x-x 替换为要移除的 worker 节点的名字 +> * worker 节点的名字可以通过在第一个 master 节点 demo-master-a-1 上执行 kubectl get nodes 命令获得 ## 安装 Ingress Controller -> ingress官方文档:https://kubernetes.io/docs/concepts/services-networking/ingress/ +> Ingress官方文档:https://kubernetes.io/docs/concepts/services-networking/ingress/ > -> Ingress Controllers官网介绍:[https://kubernetes.io/docs/concepts/services-networking/ingress-controllers/](https://kubernetes.io/docs/concepts/services-networking/ingress-controllers/) +> Ingress Controllers官网介绍:https://kubernetes.io/docs/concepts/services-networking/ingress-controllers/ > > 本文中使用如下部署方式:https://kubernetes.github.io/ingress-nginx/deploy/baremetal/#using-a-self-provisioned-edge > -> kubernetes支持多种Ingress Controllers,本文推荐使用 -> -> https://github.com/nginxinc/kubernetes-ingress +> kubernetes支持多种Ingress Controllers (traefic / Kong / Istio / Nginx 等),本文推荐使用 https://github.com/nginxinc/kubernetes-ingress +:::: tabs type:border-card -### 在 apple-master-a-1 上执行 +::: tab 快速安装 lazy -```bash -su - gitlab-runner -kubectl apply -f https://raw.githubusercontent.com/eip-work/eip-monitor-repository/master/dashboard/nginx-ingress.yaml +**在 master 节点上执行** + +``` sh +# 只在 master 节点执行 +kubectl apply -f https://kuboard.cn/install-script/nginx-ingress.yaml ``` +::: +::: tab YAML文件 lazy -### 在IaaS云控制台完成如下配置(**公网ELB**) +<<< @/.vuepress/public/install-script/nginx-ingress.yaml + +::: + +:::: + +::: warning +如果您打算将 Kubernetes 用于生产环境,请参考此文档 [Installing Ingress Controller](https://github.com/nginxinc/kubernetes-ingress/blob/v1.5.3/docs/installation.md),完善 Ingress 的配置 +::: + +### 在 IaaS 层完成如下配置(**公网ELB**) 创建负载均衡 ELB: ​ 监听器 1:80 / TCP, SOURCE_ADDRESS 会话保持 -​ 服务器资源池 1: apple-worker-x-x 的所有节点的 80端口 +​ 服务器资源池 1: demo-worker-x-x 的所有节点的 80端口 ​ 监听器 2:443 / TCP, SOURCE_ADDRESS 会话保持 -​ 服务器资源池 2: apple-worker-x-x 的所有节点的443端口 +​ 服务器资源池 2: demo-worker-x-x 的所有节点的443端口 假设刚创建的负载均衡 ELB 的 IP 地址为: z.z.z.z @@ -475,11 +314,23 @@ kubectl apply -f https://raw.githubusercontent.com/eip-work/eip-monitor-reposito ### 配置域名解析 -将域名 *.apple.yourdomain.com 解析到地址负载均衡服务器 的 IP 地址 z.z.z.z +将域名 *.demo.yourdomain.com 解析到地址负载均衡服务器 的 IP 地址 z.z.z.z ### 验证配置 -在浏览器访问 a.apple.yourdomain.com,将得到 404 NotFound 错误页面 +在浏览器访问 a.demo.yourdomain.com,将得到 404 NotFound 错误页面 + +## 下一步 +:tada: :tada: :tada: + +您已经完成了 Kubernetes 集群的安装,下一步请: + +[安装 Kuboard](/install/install-dashboard.html) + +安装 Kuboard 之前先 + + 在线体验 Kuboard + diff --git a/micro-service/prepare/k8s-basics/expose.md b/micro-service/prepare/k8s-basics/expose.md index 5da5db5..984b044 100644 --- a/micro-service/prepare/k8s-basics/expose.md +++ b/micro-service/prepare/k8s-basics/expose.md @@ -91,10 +91,10 @@ kind: Service metadata: name: nginx-service #Service 的名称 labels: #Service 自己的标签 - app:nginx #为该 Service 设置 key 为 app,value 为 nginx 的标签 + app: nginx #为该 Service 设置 key 为 app,value 为 nginx 的标签 spec: #这是关于该 Service 的定义,描述了 Service 如何选择 Pod,如何被访问 selector: #标签选择器 - app:nginx #选择包含标签 app:nginx 的 Pod + app: nginx #选择包含标签 app:nginx 的 Pod ports: - name: nginx-port #端口的名字 protocol: TCP #协议类型 TCP/UDP @@ -112,10 +112,10 @@ kind: Service metadata: name: nginx-service labels: - app:nginx + app: nginx spec: selector: - app:nginx + app: nginx ports: - name: nginx-port protocol: TCP