diff --git a/.vuepress/config.js b/.vuepress/config.js
index a4ec4f8..1cabc31 100644
--- a/.vuepress/config.js
+++ b/.vuepress/config.js
@@ -220,7 +220,7 @@ module.exports = {
},
{
title: '服务发现、负载均衡、网络',
- collapsable: true,
+ collapsable: false,
children: [
// 'k8s-intermediate/service/service',
// 'k8s-intermediate/service/dns',
@@ -231,7 +231,7 @@ module.exports = {
},
{
title: '存储',
- collapsable: true,
+ collapsable: false,
children: [
'k8s-intermediate/persistent/volume',
'k8s-intermediate/persistent/pv',
@@ -241,7 +241,7 @@ module.exports = {
},
{
title: '配置',
- collapsable: true,
+ collapsable: false,
children: [
'k8s-intermediate/config/config-map',
'k8s-intermediate/config/computing-resource',
diff --git a/.vuepress/styles/index.styl b/.vuepress/styles/index.styl
index 1956573..7fd080e 100644
--- a/.vuepress/styles/index.styl
+++ b/.vuepress/styles/index.styl
@@ -13,7 +13,8 @@ p img {
}
p code {
- border: 1px solid #007af5;
+ /*border: 1px solid #007af5;*/
+ color: #007af5 !important;
}
.noselect {
diff --git a/learning/k8s-intermediate/workload/wl-statefulset/basics.md b/learning/k8s-intermediate/workload/wl-statefulset/basics.md
index 4f44e4b..074b0f7 100644
--- a/learning/k8s-intermediate/workload/wl-statefulset/basics.md
+++ b/learning/k8s-intermediate/workload/wl-statefulset/basics.md
@@ -7,7 +7,117 @@ description: 本文描述了 Kubernetes StatefulSet 的基本信息:Components
[返回 StatefulSet](./)
-正在撰写...
+## 创建 StatefulSet
+
+下面是一个 StatefulSet 的例子,由如下内容组成:
+* 一个名为 nginx 的 [Headless Service](https://kubernetes.io/docs/concepts/services-networking/service/#headless-service),用于控制网络域
+* 一个名为 web 的StatefulSet,副本数为 3
+* volumeClaimTemplates 提供稳定的存储(每一个 Pod ID 对应自己的存储卷,且 Pod 重建后,仍然能找到对应的存储卷)
+
+``` yaml
+apiVersion: v1
+kind: Service
+metadata:
+ name: nginx
+ labels:
+ app: nginx
+spec:
+ ports:
+ - port: 80
+ name: web
+ clusterIP: None
+ selector:
+ app: nginx
+---
+apiVersion: apps/v1
+kind: StatefulSet
+metadata:
+ name: web
+spec:
+ selector:
+ matchLabels:
+ app: nginx # has to match .spec.template.metadata.labels
+ serviceName: "nginx"
+ replicas: 3 # by default is 1
+ template:
+ metadata:
+ labels:
+ app: nginx # has to match .spec.selector.matchLabels
+ spec:
+ terminationGracePeriodSeconds: 10
+ containers:
+ - name: nginx
+ image: k8s.gcr.io/nginx-slim:0.8
+ ports:
+ - containerPort: 80
+ name: web
+ volumeMounts:
+ - name: www
+ mountPath: /usr/share/nginx/html
+ volumeClaimTemplates:
+ - metadata:
+ name: www
+ spec:
+ accessModes: [ "ReadWriteOnce" ]
+ storageClassName: "my-storage-class"
+ resources:
+ requests:
+ storage: 1Gi
+```
+
+## Pod 的标识
+
+StatefulSet 中的 Pod 具备一个唯一标识,该标识由以下几部分组成:
+* 序号
+* 稳定的网络标识
+* 稳定的存储
+
+该标识始终与 Pod 绑定,无论该 Pod 被调度(重新调度)到哪一个节点上。
+
+### 序号
+
+假设一个 StatefulSet 的副本数为 N,其中的每一个 Pod 都会被分配一个序号,序号的取值范围从 0 到 N - 1,并且该序号在 StatefulSet 内部是唯一的。
+
+### 稳定的网络 ID
+
+* StatefulSet 中 Pod 的 hostname 格式为 $(StatefulSet name)-$(Pod 序号)。上面的例子将要创建三个 Pod,其名称分别为: web-0,web-1,web-2。
+* StatefulSet 可以使用 Headless Service 来控制其 Pod 所在的域。该域(domain)的格式为 $(service name).$(namespace).svc.cluster.local,其中 “cluster.local” 是集群的域。
+* StatefulSet 中每一个 Pod 将被分配一个 dnsName,格式为: $(podName).$(所在域名)
+
+::: tip
+您需要自行为 StatefulSet 创建 Headless Service。
+:::
+
+下表列出了不同的 集群域、Service name、StatefulSet name 的情况下,对应的 StatefulSet 中 Pod 的 DNS 名字:
+
+
+
+| 字段名 | 组合一 | 组合二 | 组合三 |
+| --------------------- | -------------------------------------------- | ---------------------------------------- | ------------------------------------- |
+| **集群域 Cluster Domain** | cluster.local | cluster.local | cluster.local |
+| **Service name** | default/nginx | foo/nginx | foo/nginx |
+| **StatefulSet name** | default/web | foo/web | foo/web |
+| **StatefulSet Domain** | nginx.default.svc.cluster.local | nginx.foo.svc.cluster.local | nginx.foo.svc.kube.local |
+| **Pod DNS** | web-{0..N-1}.nginx.default.svc.cluster.local | web-{0..N-1}.nginx.foo.svc.cluster.local | web-{0..N-1}.nginx.foo.svc.kube.local |
+| **Pod name** | web-{0..N-1} | web-{0..N-1} | web-{0..N-1} |
+
+### 稳定的存储
+
+Kubernetes 为每一个 VolumeClaimTemplate 创建一份 PersistentVolume(存储卷)。在上面的例子中,每一个 Pod 都将由 StorageClass(存储类)`my-storage-class` 为其创建一个 1Gib 大小的 PersistentVolume(存储卷)。当 Pod 被调度(或重新调度)到一个节点上,其挂载点将挂载该存储卷声明(关联到该 PersistentVolume)。
+
+::: tip
+* 当 Pod 或 StatefulSet 被删除时,其关联的 PersistentVolumeClaim(存储卷声明)以及其背后的 PersistentVolume(存储卷)仍然存在。
+* 如果相同的 Pod 或 StatefulSet 被再次创建,则,新建的名为 web-0 的 Pod 仍将挂载到原来名为 web-0 的 Pod 所挂载的存储卷声明及存储卷。
+* 这确保了 web-0、web-1、web-2 等,不管被删除重建多少次,都将 “稳定” 的使用各自所对应的存储内容
+:::
+
+### Pod name 标签
+
+当 StatefulSet 控制器创建一个 Pod 时,会为 Pod 添加一个标签(label) `statefulset.kubernetes.io/pod-name` 且该标签的值为 Pod 的名字。您可以利用此名字,StatefulSet 中的某一个特定的 Pod 关联一个 Service。
+
+::: tip
+实际操作中,您无需为 StatefulSet 中的一个特定 Pod 关联 Service,因为您可以直接通过该 Pod 的 DNS Name 访问到 Pod。
+:::
[返回 StatefulSet](./)
diff --git a/learning/k8s-intermediate/workload/wl-statefulset/index.md b/learning/k8s-intermediate/workload/wl-statefulset/index.md
index 1b05875..eca885c 100644
--- a/learning/k8s-intermediate/workload/wl-statefulset/index.md
+++ b/learning/k8s-intermediate/workload/wl-statefulset/index.md
@@ -5,4 +5,30 @@ description: 本文描述了 Kubernetes StatefulSet 的概念、行为及用法
# StatefulSet 的使用场景
-正在撰写...
+## StatefulSet 概述
+
+StatefulSet 顾名思义,用于管理 Stateful(有状态)的应用程序。
+
+StatefulSet 管理 Pod 时,确保其 Pod 有一个按顺序增长的 ID。
+
+与 [Deployment](../wl-deployment/) 相似,StatefulSet 基于一个 Pod 模板管理其 Pod。与 Deployment 最大的不同在于 StatefulSet 始终将一系列不变的名字分配给其 Pod。这些 Pod 从同一个模板创建,但是并不能相互替换:每个 Pod 都对应一个特有的持久化存储标识。
+
+同其他所有控制器一样,StatefulSet 也使用相同的模式运作:用户在 StatefulSet 中定义自己期望的结果,StatefulSet 控制器执行需要的操作,以使得该结果被达成。
+
+## StatefulSet 使用场景
+
+对于有如下要求的应用程序,StatefulSet 非常适用:
+
+* 稳定、唯一的网络标识(dnsname)
+* 稳定、不变的持久化路径(或存储卷)
+* 按顺序地增加副本、减少副本,并在减少副本时执行清理
+* 按顺序自动地执行滚动更新
+
+如果一个应用程序不需要稳定的网络标识,或者不需要按顺序部署、删除、增加副本,您应该考虑使用 Deployment 这类无状态(stateless)的控制器。
+
+## StatefulSet 的限制
+
+* Pod 的存储要么由 storage class 对应的 [PersistentVolume Provisioner](https://github.com/kubernetes/examples/blob/master/staging/persistent-volume-provisioning/README.md) 提供,要么由集群管理员事先创建
+* 删除或 scale down 一个 StatefulSet 将不会删除其对应的数据卷。这样做的考虑是数据安全
+* 删除 StatefulSet 时,将无法保证 Pod 的终止是正常的。如果要按顺序 gracefully 终止 StatefulSet 中的 Pod,可以在删除 StatefulSet 前将其 scale down 到 0
+* 当使用默认的 [Pod Management Policy](./update.html) (OrderedReady) 进行滚动更新时,可能进入一个错误状态,并需要[人工介入](./update.html)才能修复
diff --git a/learning/k8s-intermediate/workload/wl-statefulset/scaling.md b/learning/k8s-intermediate/workload/wl-statefulset/scaling.md
index 60e3473..dd85326 100644
--- a/learning/k8s-intermediate/workload/wl-statefulset/scaling.md
+++ b/learning/k8s-intermediate/workload/wl-statefulset/scaling.md
@@ -7,7 +7,37 @@ description: 本文描述了 Kubernetes StatefulSet 的部署和伸缩
[返回 StatefulSet](./)
-正在撰写...
+## 部署和伸缩 StatefulSet 时的执行顺序
+* 在创建一个副本数为 N 的 StatefulSet 时,其 Pod 将被按 {0 ... N-1} 的顺序逐个创建
+* 在删除一个副本数为 N 的 StatefulSet (或其中所有的 Pod)时,其 Pod 将按照相反的顺序(即 {N-1 ... 0})终止和删除
+* 在对 StatefulSet 执行扩容(scale up)操作时,新增 Pod 所有的前序 Pod 必须处于 Running(运行)和 Ready(就绪)的状态
+* 终止和删除 StatefulSet 中的某一个 Pod 时,该 Pod 所有的后序 Pod 必须全部已终止
+
+StatefulSet 中 `pod.spec.terminationGracePeriodSeconds` 不能为 0。具体原因请参考 [force deleting StatefulSet Pods](https://kubernetes.io/docs/tasks/run-application/force-delete-stateful-set-pod/)
+
+[创建 StatefulSet](./basics.html) 例子中的 nginx StatefulSet 被创建时:
+* Pod web-0、web-1、web-2 将被按顺序部署
+* web-0 处于 Running 和 Ready 状态之前,web-1 不会创建;web-1 处于 Running 和 Ready 状态之前,web-2 不会创建
+* 如果 web-1 已处于 Running 和 Ready 的状态,web-2 尚未创建,此时 web-0 发生了故障,则在 web-0 成功重启并达到 Running 和 Ready 的状态之前,web-2 不会创建
+* 如果用户对这个 StatefulSet 执行缩容(scale down)操作,将其副本数调整为 1,则:
+ * web-2 将被首先终止;在 web-2 已终止并删除之后,才开始终止 web-1
+ * 假设在 web-2 终止并删除之后,web-1 终止之前,此时 web-0 出现故障,则,在 web-0 重新回到 Running 和 Ready 的状态之前,kubernetes 将不会终止 web-1
+
+## Pod 管理策略
+
+在 Kubernetes 1.7 及其后续版本中,可以为 StatefulSet 设定 `.spec.podManagementPolicy` 字段,以便您可以继续使用 StatefulSet 唯一 ID 的特性,但禁用其有序创建和销毁 Pod 的特性。该字段的取值如下:
+
+* **OrderedReady**
+
+ OrderedReady 是 `.spec.podManagementPlicy` 的默认值。其对 Pod 的管理方式已经在 [部署和伸缩 StatefulSet 时的执行顺序](./scaling.html#部署和伸缩-statefulset-时的执行顺序) 详细描述
+
+* **Parallel**
+
+ `.spec.podManagementPlicy` 的取值为 Parallel,则 StatefulSet Controller 将同时并行地创建或终止其所有的 Pod。此时 StatefulSet Controller 将不会逐个创建 Pod,等待 Pod 进入 Running 和 Ready 状态之后再创建下一个 Pod,也不会逐个终止 Pod。
+
+ ::: tip
+ 此选项只影响到伸缩(scale up/scale down)操作。更新操作不受影响。
+ :::
[返回 StatefulSet](./)
diff --git a/learning/k8s-intermediate/workload/wl-statefulset/update.md b/learning/k8s-intermediate/workload/wl-statefulset/update.md
index d81513f..34bcc56 100644
--- a/learning/k8s-intermediate/workload/wl-statefulset/update.md
+++ b/learning/k8s-intermediate/workload/wl-statefulset/update.md
@@ -7,7 +7,44 @@ description: 本文描述了 Kubernetes StatefulSet 的更新
[返回 StatefulSet](./)
-正在撰写...
+## StatefulSet 的更新策略
+
+在 Kubernetes 1.7 及之后的版本中,可以为 StatefulSet 设定 `.spec.updateStrategy` 字段,以便您可以在改变 StatefulSet 中 Pod 的某些字段时(container/labels/resource request/resource limit/annotation等)禁用滚动更新。
+
+### On Delete
+
+OnDelete 策略实现了 StatefulSet 的遗留版本(kuberentes 1.6及以前的版本)的行为。如果 StatefulSet 的 `.spec.updateStrategy.type` 字段被设置为 OnDelete,当您修改 `.spec.template` 的内容时,StatefulSet Controller 将不会自动更新其 Pod。您必须手工删除 Pod,此时 StatefulSet Controller 在重新创建 Pod 时,使用修改过的 `.spec.template` 的内容创建新 Pod。
+
+### Rolling Updates
+
+`.spec.updateStrategy.type` 字段的默认值是 RollingUpdate,该策略为 StatefulSet 实现了 Pod 的自动滚动更新。在用户更新 StatefulSet 的 `.spec.tempalte` 字段时,StatefulSet Controller 将自动地删除并重建 StatefulSet 中的每一个 Pod。处理顺序如下:
+* 从序号最大的 Pod 开始,逐个删除和更新每一个 Pod,直到序号最小的 Pod 被更新
+* 当正在更新的 Pod 达到了 Running 和 Ready 的状态之后,才继续更新其前序 Pod
+
+
+* **Partitions**
+
+ 通过指定 `.spec.updateStrategy.rollingUpdate.partition` 字段,可以分片(partitioned)执行RollingUpdate 更新策略。当更新 StatefulSet 的 `.spec.template` 时:
+ * 序号大于或等于 `.spec.updateStrategy.rollingUpdate.partition` 的 Pod 将被删除重建
+ * 序号小于 `.spec.updateStrategy.rollingUpdate.partition` 的 Pod 将不会更新,及时手工删除该 Pod,kubernetes 也会使用前一个版本的 `.spec.template` 重建该 Pod
+ * 如果 `.spec.updateStrategy.rollingUpdate.partition` 大于 `.spec.replicas`,更新 `.spec.tempalte` 将不会影响到任何 Pod
+
+ ::: tip
+ 大部分情况下,您不需要使用 `.spec.updateStrategy.rollingUpdate.partition`,除非您碰到如下场景:
+ * 执行预发布
+ * 执行金丝雀更新
+ * 执行按阶段的更新
+ :::
+
+* **Forced Rollback**
+
+ 当使用默认的 Pod 管理策略时(OrderedReady),很有可能会进入到一种卡住的状态,需要人工干预才能修复。
+
+ 如果您更新 Pod template 后,该 Pod 始终不能进入 Running 和 Ready 的状态(例如,镜像错误或应用程序配置错误),StatefulSet 将停止滚动更新并一直等待。
+
+ 此时,如果您仅仅将 Pod template 回退到一个正确的配置仍然是不够的。由于一个已知的问题,StatefulSet 将继续等待出错的 Pod 进入就绪状态(该状态将永远无法出现),才尝试将该 Pod 回退到正确的配置。
+
+ 在修复 Pod template 以后,您还必须删除掉所有已经尝试使用有问题的 Pod template 的 Pod。StatefulSet此时才会开始使用修复了的 Pod template 重建 Pod。
[返回 StatefulSet](./)