seo优化

This commit is contained in:
huanqing.shao
2019-09-21 00:42:52 +08:00
parent 20d15a141c
commit affcfef338
62 changed files with 412 additions and 301 deletions

View File

@ -35,7 +35,7 @@ nodeName 是四种方法中最简单的一个,但是因为它的局限性,
您在 Kuboard 工作负载编辑器中,可以通过 ***指定节点*** --> ***选择节点*** 按钮,选择对应 nodeName 的取值。如下图所示:
![image-20190908141039251](./assign-pod-node.assets/image-20190908141039251.png)
![Kubernetes教程将容器调度到指定节点-选择节点](./assign-pod-node.assets/image-20190908141039251.png)
## 节点选择器 nodeSelector
@ -51,7 +51,7 @@ nodeSelector 是 PodSpec 中的一个字段。指定了一组名值对。节点
增加标签 disk:ssd并保存如下图所示
![image-20190908152121423](./assign-pod-node.assets/image-20190908152121423.png)
![Kubernetes教程将容器调度到指定节点-为节点增加标签](./assign-pod-node.assets/image-20190908152121423.png)
### 为工作负载选择节点
@ -65,7 +65,7 @@ nodeSelector 是 PodSpec 中的一个字段。指定了一组名值对。节点
选择 disk:ssd 标签,此时可以看到匹配的节点有刚才您添加标签的节点。点击 ***确定*** 按钮
![image-20190908152640876](./assign-pod-node.assets/image-20190908152640876.png)
![Kubernetes教程将容器调度到指定节点-选择标签](./assign-pod-node.assets/image-20190908152640876.png)
* 点击 ***保存*** 按钮

View File

@ -38,7 +38,7 @@ Kubernetes 中,可以为容器指定计算资源的请求数量 request 和限
在 Kuboard 的工作负载编辑器中编辑容器资源请求及限制的界面如下图所示:
![image-20190908193257183](./computing-resource.assets/image-20190908193257183.png)
![Kubernetes教程管理容器的计算资源](./computing-resource.assets/image-20190908193257183.png)
## 带有资源请求的容器组是如何调度的

View File

@ -26,13 +26,13 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
如下图所示:
![image-20190829060842558](./config-map.assets/image-20190829060842558.png)
![Kubernetes教程使用ConfigMap配置应用-进入名称空间](./config-map.assets/image-20190829060842558.png)
* 点击 **配置** --> **创建** 按钮
并填写表单,如下图所示:
![image-20190829110253001](./config-map.assets/image-20190829110253001.png)
![Kubernetes教程使用ConfigMap配置应用-创建ConfigMap](./config-map.assets/image-20190829110253001.png)
* 点击 **保存**
@ -59,9 +59,9 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
如下图所示:
![image-20190829112358038](./config-map.assets/image-20190829112358038.png)
![Kubernetes教程使用ConfigMap配置应用-创建工作负载](./config-map.assets/image-20190829112358038.png)
![image-20190829112451057](./config-map.assets/image-20190829112451057.png)
![Kubernetes教程使用ConfigMap配置应用-创建工作负载](./config-map.assets/image-20190829112451057.png)
* 点击 **保存**
@ -81,7 +81,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
可查看到 ENV_KEY_1='value-1' 已经注入到该容器的环境变量中,如下图所示:
![image-20190829112834708](./config-map.assets/image-20190829112834708.png)
![Kubernetes教程使用ConfigMap配置应用-进入终端界面](./config-map.assets/image-20190829112834708.png)
## ConfigMap --> 容器的环境变量ConfigMap的所有名值对
@ -104,7 +104,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
如下图所示:
![image-20190829135425998](./config-map.assets/image-20190829135425998.png)
![Kubernetes教程使用ConfigMap配置应用-创建工作负载](./config-map.assets/image-20190829135425998.png)
* 点击 **保存**
@ -133,7 +133,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
可查看到 `KEY_1` `KEY_2` `KEY_3` 已经注入到该容器的环境变量中,如下图所示:
![image-20190829135734710](./config-map.assets/image-20190829135734710.png)
![Kubernetes教程使用ConfigMap配置应用-执行export命令](./config-map.assets/image-20190829135734710.png)
## ConfigMap --> Command 参数
@ -155,7 +155,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
| 环境变量 | ENV_KEY_1 / ENV_KEY_3 | 选择 ConfigMap<br/> ConfigMap 填写 ***my-nginx-config*** <br/> Key 填写 ***KEY_1*** <br/> <br/> 同样的方法添加 ENV_KEY_3 |
如下图所示:
![image-20190829141424670](./config-map.assets/image-20190829141424670.png)
![Kubernetes教程使用ConfigMap配置应用-Command参数](./config-map.assets/image-20190829141424670.png)
* 点击 **保存**
@ -172,7 +172,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
如下图所示
![image-20190829151912714](./config-map.assets/image-20190829151912714.png)
![Kubernetes教程使用ConfigMap配置应用-查看日志界面](./config-map.assets/image-20190829151912714.png)
## ConfigMap --> 数据卷
@ -207,7 +207,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
![image-20190829144149253](./config-map.assets/image-20190829144149253.png)
![Kubernetes教程使用ConfigMap配置应用-数据卷配置](./config-map.assets/image-20190829144149253.png)
* 创建 nginx Deployment 如下图所示:
@ -233,7 +233,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
| 挂载点:数据卷 | default-conf | 选择上面已经定义的数据卷 |
| 挂载点:数据卷内子路径 | default.conf | 将数据卷内的 default.conf 映射到容器的 /etc/nginx/conf.d/default.conf |
![image-20190829143229693](./config-map.assets/image-20190829143229693.png)
![Kubernetes教程使用ConfigMap配置应用-数据卷配置](./config-map.assets/image-20190829143229693.png)
* 点击 **保存**
@ -254,7 +254,7 @@ Kubernetes 官网描述了多种 ConfigMap 的创建方法,本文不再复述
cat /default.conf
```
![image-20190829151744331](./config-map.assets/image-20190829151744331.png)
![Kubernetes教程使用ConfigMap配置应用-查看结果](./config-map.assets/image-20190829151744331.png)
::: tip

View File

@ -38,7 +38,7 @@ PersistentVolumeClaimPVC 存储卷声明)代表用户使用存储的请求
* PersistentVolumeClaim 是使用该资源的请求,通常由应用程序提出请求,并指定对应的 StorageClass 和需求的空间大小
* PersistentVolumeClaim 可以做为数据卷的一种,被挂载到容器组/容器中使用
<img src="./pv.assets/image-20190906074512760.png" style="max-width: 450px;"/>
<img src="./pv.assets/image-20190906074512760.png" style="max-width: 450px;" alt="Kubernetes教程存储卷PersistentVolume"/>
PersistantVolume 和 PersistantVolumeClaim 的管理过程描述如下:
@ -136,7 +136,7 @@ Kubernetes 支持 20 种存储卷类型(可参考 [Types of Persistent Volumes
在 Kuboard 中查看 PersistentVolume 的界面如下图所示:
![image-20190905221422172](./pv.assets/image-20190905221422172.png)
![Kubernetes教程存储卷PersistentVolume-在Kuboard中查看](./pv.assets/image-20190905221422172.png)
PersistentVolume 字段描述如下表所示:
@ -156,7 +156,7 @@ PersistentVolume 字段描述如下表所示:
在 Kuboard 中查看存储卷声明的界面如下图所示:
![image-20190906070246134](./pv.assets/image-20190906070246134.png)
![Kubernetes教程存储卷PersistentVolume-在Kuboard中查看存储卷声明PersistentVolumeClaims](./pv.assets/image-20190906070246134.png)
| 字段名称 | 可选项/备注 |
| --------------------- | ------------------------------------------------------------ |
@ -171,4 +171,4 @@ PersistentVolume 字段描述如下表所示:
在您完成存储卷声明的定义后,您可以在 Kuboard 工作复杂编辑器的 ***数据卷 Volume*** 区域引用该存储卷声明,如下图所示:
![image-20190906072544024](./pv.assets/image-20190906072544024.png)
![Kubernetes教程存储卷PersistentVolume-使用存储卷声明](./pv.assets/image-20190906072544024.png)

View File

@ -28,7 +28,7 @@ Kuboard 支持的存储类的种类如下:
在 Kuboard 中查看存储类,如下图所示:
![image-20190906080746368](./storage-class.assets/image-20190906080746368.png)
![Kubernetes教程在Kuboard中查看存储类](./storage-class.assets/image-20190906080746368.png)

View File

@ -27,7 +27,7 @@ Docker 里同样也存在一个 volume数据卷的概念但是 docker
* 一个容器通过挂载点决定某一个数据卷被挂载到容器中的什么路径
* 不同类型的数据卷对应不同的存储介质(图中列出了 nfs、PVC、ConfigMap 三种存储介质,接下来将介绍更多)
<img src="./volume.assets/image-20190904201849792.png" style="max-width: 450px;"/>
<img src="./volume.assets/image-20190904201849792.png" style="max-width: 450px;" alt="Kubernetes教程数据卷"/>
## 在 Kuboard 中使用数据卷
@ -54,7 +54,7 @@ Docker 里同样也存在一个 volume数据卷的概念但是 docker
:::
![image-20190904194501941](./volume.assets/image-20190904194501941.png)
![Kubernetes教程数据卷Volume-概念结构](./volume.assets/image-20190904194501941.png)
## 数据卷的类型

View File

@ -62,7 +62,7 @@ docker pull my-registry.example.com:5000/example/web-example:v1.0.1
如下图所示
![image-20190902223052044](./private-registry.assets/image-20190902223052044.png)
![Kubernetes教程使用私有仓库中的 docker 镜像](./private-registry.assets/image-20190902223052044.png)
* 点击 **保存** 按钮
@ -88,7 +88,7 @@ docker pull my-registry.example.com:5000/example/web-example:v1.0.1
* 红色部分image 名字
* 棕色部分image 标签
![image-20190902223708740](./private-registry.assets/image-20190902223708740.png)
![Kubernetes教程使用私有仓库中的 docker 镜像](./private-registry.assets/image-20190902223708740.png)

View File

@ -68,7 +68,7 @@ CNI的初衷是创建一个框架用于在配置或销毁容器时动态配
**Flannel**
![kubernetes网络插件对比分析flannel、calico、weave](./cni.assets/04c2db500e1b4b5dae3be817bfe6d673.jpeg)
![Kubernetes教程kubernetes网络插件对比分析flannel、calico、weave](./cni.assets/04c2db500e1b4b5dae3be817bfe6d673.jpeg)
@ -88,7 +88,7 @@ Flannel有几种不同类型的后端可用于封装和路由。默认和推荐
**Calico**
![kubernetes网络插件对比分析flannel、calico、weave](./cni.assets/79fa00ed4bcb4d9b94aee1d02b3c5c8c.jpeg)
![Kubernetes教程kubernetes网络插件对比分析flannel、calico、weave](./cni.assets/79fa00ed4bcb4d9b94aee1d02b3c5c8c.jpeg)
@ -109,7 +109,7 @@ Calico是Kubernetes生态系统中另一种流行的网络选择。虽然Flannel
**Weave**
![kubernetes网络插件对比分析flannel、calico、weave](./cni.assets/67b4097c58df478cb348ad50ea752f12.jpeg)
![Kubernetes教程kubernetes网络插件对比分析flannel、calico、weave](./cni.assets/67b4097c58df478cb348ad50ea752f12.jpeg)

View File

@ -1,8 +1,121 @@
---
layout: LearningLayout
description: 本文介绍了 Kubernetes 中 DNS 分配规则
description: 本文介绍了 Kubernetes 中 Service 和 Pod 的 DNS 分配规则
---
# Service/Pod 的 DNS
正在撰写...
参考文档: Kubernetes 官网文档 [DNS for Services and Pods](https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/)
本文介绍了 Kubernetes 中的 DNS 分配方式
## 概述
Kubernetes 集群中运行了一组 DNS Pod配置了对应的 Service并由 kubelete 将 DNS Service 的 IP 地址配置到节点上的容器中以便解析 DNS names。
集群中的每一个 Service包括 DNS 服务本身)都将被分配一个 DNS name。默认情况下客户端 Pod 的 DNS 搜索列表包括 Pod 所在的名称空间以及集群的默认域。例如:
假设名称空间 `bar` 中有一个 Service 名为 `foo`
* 名称空间 `bar` 中的 Pod 可以通过 `nslookup foo` 查找到该 Service
* 名称空间 `quux` 中的 Pod 可以通过 `nslookup foo.bar` 查找到该 Service
本文后面的章节详细介绍了支持的 DNS 记录类型及格式。如果有任何其他类型的格式凑巧可以使用,这仅仅是实现上的细节,并且可能在将来的版本中失效。参考此文档可以查看最新的规范 [Kubernetes DNS-Based Service Discovery](https://github.com/kubernetes/dns/blob/master/docs/specification.md)
## Services
### A 记录
* Serviceheadless Service 除外)将被分配一个 DNS A 记录,格式为 `my-svc.my-namespace.svc.cluster-domain.example`。该 DNS 记录解析到 Service 的 ClusterIP。
* Headless Service没有 ClusterIP也将被分配一个 DNS A 记录,格式为 `my-svc.my-namespace.svc.cluster-domain.exmaple`。该 DNS 记录解析到 Service 所选中的一组 Pod 的 IP 地址的集合。调用者应该使用该 IP 地址集合或者按照轮询round-robin的方式从集合中选择一个 IP 地址使用。
### SRV 记录
Service含 headless Service的命名端口有 name 的端口)将被分配一个 SRV 记录,其格式为 `_my-port-name._my-port-protocol.my-svc.my-namespace.svc.cluster-domain.example`
* 对于一个普通 Service非 headless Service该 SRV 记录解析到其端口号和域名 `my-svc.my-namespace.svc.cluster-domain.exmaple`
* 对于一个 Headless Service该 SRV 记录解析到多个结果:每一个结果都对应该 Service 的一个后端 Pod包含其端口号和 Pod 的域名 `auto-generated-pod-name.my-svc.my-namespace.svc.cluster-domain.exmaple`
## Pods
### Pod 的 hostname / subdomain
Kubernetes 在创建 Pod 时,将 Pod 定义中的 `metadata.name` 的值作为 Pod 实例的 hostname。
Pod 定义中有一个可选字段 `spec.hostname` 可用来直接指定 Pod 的 hostname。例如某 Pod 的 `spec.hostname` 字段被设置为 `my-host`,则该 Pod 创建后 hostname 将被设为 `my-host`
Pod 定义中还有一个可选字段 `spec.subdomain` 可用来指定 Pod 的 subdomain。例如名称空间 `my-namespace` 中,某 Pod 的 hostname 为 `foo`,并且 subdomain 为 `bar`,则该 Pod 的完整域名FQDN`foo.bar.my-namespace.svc.cluster-domain.example`
例子:
``` yaml
apiVersion: v1
kind: Service
metadata:
name: default-subdomain
spec:
selector:
name: busybox
clusterIP: None
ports:
- name: foo # Actually, no port is needed.
port: 1234
targetPort: 1234
---
apiVersion: v1
kind: Pod
metadata:
name: busybox1
labels:
name: busybox
spec:
hostname: busybox-1
subdomain: default-subdomain
containers:
- image: busybox:1.28
command:
- sleep
- "3600"
name: busybox
---
apiVersion: v1
kind: Pod
metadata:
name: busybox2
labels:
name: busybox
spec:
hostname: busybox-2
subdomain: default-subdomain
containers:
- image: busybox:1.28
command:
- sleep
- "3600"
name: busybox
```
如果 Pod 所在名称空间中存在一个 headless Service其名称与 Pod 的 subdomain 相同,则集群的 KubeDNS 服务器仍将为 Pod 的完整域名FQDN返回一个 A 记录。例如,假设一个 Pod 的 hostname 为 `busybox-1` 且其 subdomain 为 `default-subdomain`,同名称空间下有一个 headless Service 的名字为 `default-subdomain`,此时,该 Pod 的完整域名FQDN为 `busybox-1.default-subdomain.my-namespace.svc.cluster-domain.example`。DNS 服务将其解析到一个 A 记录,指向 Pod 的 IP 地址。上面 yaml 文件中的 Pod `busybox1` 和 `busybox2` 都将有各自的 A 记录
::: tip 备注
* A 记录不是根据 Pod name 创建的,而是根据 hostname 创建的。如果一个 Pod 没有 hostname 只有 subdomain则 Kubernetes 将只为其 headless Service 创建一个 A 记录 `default-subdomain.my-namespace.svc.cluster-domain.example`,该记录指向 Pod 的 IP 地址。
* Pod 必须达到就绪状态才可以拥有 A 记录,除非 Service 的字段 `spec.publishNotReadyAddresses` 被设置为 `True`
:::
<!-- The Endpoints object can specify the hostname for any endpoint addresses, along with its IP. -->
### Pod 的 DNS Policy
可以为每一个 Pod 设置其自己的 DNS Policy。Kubernetes 通过 Pod 定义中的 `spec.dnsPolicy` 字段设置 DNS Policy可选的值有
* **Default** Pod 从其所在的节点继承域名解析配置。更多细节请参考 [Customizing DNS Service
](https://kubernetes.io/docs/tasks/administer-cluster/dns-custom-nameservers/#inheriting-dns-from-the-node)
* **ClusterFirst**:任何与集群域名后缀(例如 `www.kubernetes.io`)不匹配的 DNS 查询,都将被转发到 Pod 所在节点的上游 DNS 服务。集群管理员可能配置了额外的 stub-domain 及上游 DNS 服务,更多细节请参考 [Customizing DNS Service
](https://kubernetes.io/docs/tasks/administer-cluster/dns-custom-nameservers/#effects-on-pods)
* **ClusterFirstWithHostNet** 对于运行在节点网络上的 Pod其 dnsPolicy 必须指定为 `ClusterFirstWithHostNet`
*
“ClusterFirstWithHostNet“: For Pods running with hostNetwork, you should explicitly set its DNS policy “ClusterFirstWithHostNet”.
“None“: It allows a Pod to ignore DNS settings from the Kubernetes environment. All DNS settings are supposed to be provided using the dnsConfig field in the Pod Spec. See Pods DNS config subsection below.

View File

@ -28,7 +28,7 @@ Ingress Controller (通常需要负载均衡器配合)负责实现 Ingress A
2. Ingress Controller 根据请求的域名 `a.kuboard.cn` 和路径 `abc` 匹配集群中所有的 Ingress 信息,并最终找到 `Ingress B` 中有这个配置,其对应的 Service 为 `Service B``9080` 端口
3. Ingress Controller 通过 kube-proxy 将请求转发到 `Service B` 对应的任意一个 Pod 上 与 `Service B``9080` 端口对应的容器端口上。(从 Ingress Controller 到 Pod 的负载均衡由 kube-proxy + Service 实现)
<img src="./ingress.assets/image-20190910222649193.png" style="border: 1px solid #d7dae2; max-width: 720px;"></img>
<img src="./ingress.assets/image-20190910222649193.png" style="border: 1px solid #d7dae2; max-width: 720px;" alt="Kubernetes教程Ingress及其Controller"></img>
## Ingress Controller
@ -100,7 +100,7 @@ spec:
> 文档 [安装 Kubernetes 单Master节点](/install/install-k8s.html) 中使用的就是这种拓扑结构。这种方式下Ingress Controller 存在单点故障的可能性。
![单IngressController节点](/images/topology/k8s.png)
![Kubernetes教程单IngressController节点](/images/topology/k8s.png)
### 使用外部负载均衡器
@ -112,7 +112,7 @@ spec:
> 文档 [安装 Kubernetes 高可用](/install/install-kubernetes.html) 中使用的就是这种拓扑结构。
![LoadBalancer](/images/topology/kubernetes.png)
![Kubernetes教程LoadBalancer](/images/topology/kubernetes.png)
## 实战:通过 Ingress 使您的应用程序在互联网可用
@ -249,7 +249,7 @@ curl a.demo.kuboard.cn
* **如下图所示:**
![image-20190910225225179](./ingress.assets/image-20190910225225179.png)
![Kubernetes教程创建工作负载并配置Ingress](./ingress.assets/image-20190910225225179.png)
::: tip
Kuboard 工作负载编辑器将 kubernetes 中三个主要对象 Deployment/Service/Ingress 放在同一个编辑器界面中处理。

View File

@ -126,7 +126,7 @@ Kubernetes 支持三种 proxy mode代理模式他们的版本兼容性
如下图所示:
<p>
<img src="./service-details.assets/services-userspace-overview.svg" style="max-width: 420px;"/>
<img src="./service-details.assets/services-userspace-overview.svg" style="max-width: 420px;" alt="Kubernetes教程Service user space"/>
</p>
### Iptables 代理模式 <Badge text="默认模式" type="success"/>
@ -141,7 +141,7 @@ Kubernetes 支持三种 proxy mode代理模式他们的版本兼容性
如下图所示:
<p>
<img src="./service-details.assets/services-iptables-overview.svg" style="max-width: 420px;"/>
<img src="./service-details.assets/services-iptables-overview.svg" style="max-width: 420px;" alt="Kubernetes教程Service iptables proxy"/>
</p>
**iptables proxy mode 的优点:**
@ -165,7 +165,7 @@ Kubernetes 支持三种 proxy mode代理模式他们的版本兼容性
* 当访问一个 Service 时IPVS 将请求重定向到后端 Pod
<p>
<img src="./service-details.assets/services-ipvs-overview.svg" style="max-width: 420px;"/>
<img src="./service-details.assets/services-ipvs-overview.svg" style="max-width: 420px;" alt="Kubernetes教程Service IPVS proxy"/>
</p>
**IPVS 模式的优点**

View File

@ -35,7 +35,7 @@ Kubernetes 通过引入 Service 的概念,将前端与后端解耦。
从 Kuboard 工作负载编辑器的视角来看Service 与其他重要的 Kubernetes 对象之间的关系如下图所示:
<p>
<img src="./service.assets/image-20190917210501081.png" style="max-width: 600px;"/>
<img src="./service.assets/image-20190917210501081.png" style="max-width: 600px;" alt="Kubernetes教程Service概念结构"/>
</p>
图中Service 先连线到 ControllerController 在连线到容器组,这种表示方式只是概念上的,期望用户在使用 Kubernetes 的时候总是通过 Controller 创建 Pod然后再通过 Service 暴露为网络服务,通过 Ingress 对集群外提供互联网访问。
@ -52,6 +52,6 @@ Kubernetes 通过引入 Service 的概念,将前端与后端解耦。
在 Kuboard 工作负载编辑器中Service 如下图所示:
![image-20190917213132221](./service.assets/image-20190917213132221.png)
![Kubernetes教程Service概述](./service.assets/image-20190917213132221.png)
...
![image-20190917213206652](./service.assets/image-20190917213206652.png)
![Kubernetes教程Service概述](./service.assets/image-20190917213206652.png)

View File

@ -58,7 +58,7 @@ Pod 可以包含多个工作容器,也可以包含一个或多个初始化容
Kuboard 工作负载编辑器中支持定义初始化容器,如下图所示,左下角可 ***添加初始化容器*** 初始化容器按照添加的顺序显示在容器组中,且始终显示在工作容器的前面。
![image-20190907171451988](./init-container.assets/image-20190907171451988.png)
![Kubernetes教程在Kuboard中使用初始化容器](./init-container.assets/image-20190907171451988.png)
## 初始化容器的行为

View File

@ -27,7 +27,7 @@ phase 的可能取值有:
每一个 Pod 都有一个数组描述其是否达到某些指定的条件。Pod condition 数组在 Kuboard 中的显示如下图所示:
![image-20190907122721669](./pod-lifecycle.assets/image-20190907122721669.png)
![Kubernetes教程容器组的生命周期](./pod-lifecycle.assets/image-20190907122721669.png)
该数组的每一行可能有六个字段:
@ -79,7 +79,7 @@ Kubelet 可以在两种情况下对运行中的容器执行 Probe
Kuboard 可以在工作负载编辑器中配置健康检查/就绪检查,界面如下所示:
![image-20190907141952059](./pod-lifecycle.assets/image-20190907141952059.png)
![Kubernetes教程在Kuboard中配置容器的健康检查/就绪检查](./pod-lifecycle.assets/image-20190907141952059.png)
<!--
$$ Pod and Container status
@ -95,7 +95,7 @@ $$ Pod and Container status
在 Kuboard 的工作负载查看界面中可查看到容器的状态如下图所示:
![image-20190907143026772](./pod-lifecycle.assets/image-20190907143026772.png)
![Kubernetes教程在Kuboard中查看容器的状态](./pod-lifecycle.assets/image-20190907143026772.png)
<!-- $$ Pod readiness gate
Kuboard 暂不支持 -->

View File

@ -49,7 +49,7 @@ Pod 的设计目的是用来支持多个互相协同的容器,是的他们形
::: tip 提示
将多个容器运行于同一个容器组中是一种相对高级复杂的使用方法。只有在您的容器相互之间紧密耦合是,您才应该使用这种方式。例如:您可能有一个容器是 web server用来将共享数据卷中的文件作为网站发布出去同时您有另一个 "sidecar" 容器从远程抓取并更新这些文件。如下图所示:
<img src="./pod.assets/pod.svg" style="max-width: 360px;"></img>
<img src="./pod.assets/pod.svg" style="max-width: 360px;" alt="Kubernetes教程Pod中的多个容器"></img>
:::

View File

@ -51,9 +51,9 @@ Kubernetes 通过引入 Controller控制器的概念来管理 Pod 实例
在 Kuboard 工作负载编辑器中,控制器的概念如下图所示:
<img src="./workload.assets/image-20190910232615991.png" style="border: 1px solid #d7dae2; max-width: 600px;"></img>
<img src="./workload.assets/image-20190910232615991.png" style="border: 1px solid #d7dae2; max-width: 600px;" alt="Kubernetes教程控制器概念结构"></img>
**界面如下图所示:**
![image-20190910232736012](./workload.assets/image-20190910232736012.png)
![Kubernetes教程控制器概念结构](./workload.assets/image-20190910232736012.png)