statefulset

This commit is contained in:
huanqing.shao
2019-09-14 11:14:40 +08:00
parent 4de76eff89
commit b87d147524
6 changed files with 212 additions and 8 deletions

View File

@ -220,7 +220,7 @@ module.exports = {
},
{
title: '服务发现、负载均衡、网络',
collapsable: true,
collapsable: false,
children: [
// 'k8s-intermediate/service/service',
// 'k8s-intermediate/service/dns',
@ -231,7 +231,7 @@ module.exports = {
},
{
title: '存储',
collapsable: true,
collapsable: false,
children: [
'k8s-intermediate/persistent/volume',
'k8s-intermediate/persistent/pv',
@ -241,7 +241,7 @@ module.exports = {
},
{
title: '配置',
collapsable: true,
collapsable: false,
children: [
'k8s-intermediate/config/config-map',
'k8s-intermediate/config/computing-resource',

View File

@ -13,7 +13,8 @@ p img {
}
p code {
border: 1px solid #007af5;
/*border: 1px solid #007af5;*/
color: #007af5 !important;
}
.noselect {

View File

@ -7,7 +7,117 @@ description: 本文描述了 Kubernetes StatefulSet 的基本信息Components
[返回 StatefulSet](./)
正在撰写...
## 创建 StatefulSet
下面是一个 StatefulSet 的例子,由如下内容组成:
* 一个名为 nginx 的 [Headless Service](https://kubernetes.io/docs/concepts/services-networking/service/#headless-service),用于控制网络域
* 一个名为 web 的StatefulSet副本数为 3
* volumeClaimTemplates 提供稳定的存储(每一个 Pod ID 对应自己的存储卷,且 Pod 重建后,仍然能找到对应的存储卷)
``` yaml
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
selector:
matchLabels:
app: nginx # has to match .spec.template.metadata.labels
serviceName: "nginx"
replicas: 3 # by default is 1
template:
metadata:
labels:
app: nginx # has to match .spec.selector.matchLabels
spec:
terminationGracePeriodSeconds: 10
containers:
- name: nginx
image: k8s.gcr.io/nginx-slim:0.8
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "my-storage-class"
resources:
requests:
storage: 1Gi
```
## Pod 的标识
StatefulSet 中的 Pod 具备一个唯一标识,该标识由以下几部分组成:
* 序号
* 稳定的网络标识
* 稳定的存储
该标识始终与 Pod 绑定,无论该 Pod 被调度(重新调度)到哪一个节点上。
### 序号
假设一个 StatefulSet 的副本数为 N其中的每一个 Pod 都会被分配一个序号,序号的取值范围从 0 到 N - 1并且该序号在 StatefulSet 内部是唯一的。
### 稳定的网络 ID
* StatefulSet 中 Pod 的 hostname 格式为 $(StatefulSet name)-$(Pod 序号)。上面的例子将要创建三个 Pod其名称分别为 web-0web-1web-2。
* StatefulSet 可以使用 Headless Service 来控制其 Pod 所在的域。该域domain的格式为 $(service name).$(namespace).svc.cluster.local其中 “cluster.local” 是集群的域。
* StatefulSet 中每一个 Pod 将被分配一个 dnsName格式为 $(podName).$(所在域名)
::: tip
您需要自行为 StatefulSet 创建 Headless Service。
:::
下表列出了不同的 集群域、Service name、StatefulSet name 的情况下,对应的 StatefulSet 中 Pod 的 DNS 名字:
| 字段名 | 组合一 | 组合二 | 组合三 |
| --------------------- | -------------------------------------------- | ---------------------------------------- | ------------------------------------- |
| **集群域 Cluster Domain** | cluster.local | cluster.local | cluster.local |
| **Service name** | default/nginx | foo/nginx | foo/nginx |
| **StatefulSet name** | default/web | foo/web | foo/web |
| **StatefulSet Domain** | nginx.default.svc.cluster.local | nginx.foo.svc.cluster.local | nginx.foo.svc.kube.local |
| **Pod DNS** | web-{0..N-1}.nginx.default.svc.cluster.local | web-{0..N-1}.nginx.foo.svc.cluster.local | web-{0..N-1}.nginx.foo.svc.kube.local |
| **Pod name** | web-{0..N-1} | web-{0..N-1} | web-{0..N-1} |
### 稳定的存储
Kubernetes 为每一个 VolumeClaimTemplate 创建一份 PersistentVolume存储卷。在上面的例子中每一个 Pod 都将由 StorageClass存储类`my-storage-class` 为其创建一个 1Gib 大小的 PersistentVolume存储卷。当 Pod 被调度(或重新调度)到一个节点上,其挂载点将挂载该存储卷声明(关联到该 PersistentVolume
::: tip
* 当 Pod 或 StatefulSet 被删除时,其关联的 PersistentVolumeClaim存储卷声明以及其背后的 PersistentVolume存储卷仍然存在。
* 如果相同的 Pod 或 StatefulSet 被再次创建,则,新建的名为 web-0 的 Pod 仍将挂载到原来名为 web-0 的 Pod 所挂载的存储卷声明及存储卷。
* 这确保了 web-0、web-1、web-2 等,不管被删除重建多少次,都将 “稳定” 的使用各自所对应的存储内容
:::
### Pod name 标签
当 StatefulSet 控制器创建一个 Pod 时,会为 Pod 添加一个标签label `statefulset.kubernetes.io/pod-name` 且该标签的值为 Pod 的名字。您可以利用此名字StatefulSet 中的某一个特定的 Pod 关联一个 Service。
::: tip
实际操作中,您无需为 StatefulSet 中的一个特定 Pod 关联 Service因为您可以直接通过该 Pod 的 DNS Name 访问到 Pod。
:::
[返回 StatefulSet](./)

View File

@ -5,4 +5,30 @@ description: 本文描述了 Kubernetes StatefulSet 的概念、行为及用法
# StatefulSet 的使用场景
正在撰写...
## StatefulSet 概述
StatefulSet 顾名思义,用于管理 Stateful有状态的应用程序。
StatefulSet 管理 Pod 时,确保其 Pod 有一个按顺序增长的 ID。
与 [Deployment](../wl-deployment/) 相似StatefulSet 基于一个 Pod 模板管理其 Pod。与 Deployment 最大的不同在于 StatefulSet 始终将一系列不变的名字分配给其 Pod。这些 Pod 从同一个模板创建,但是并不能相互替换:每个 Pod 都对应一个特有的持久化存储标识。
同其他所有控制器一样StatefulSet 也使用相同的模式运作:用户在 StatefulSet 中定义自己期望的结果StatefulSet 控制器执行需要的操作,以使得该结果被达成。
## StatefulSet 使用场景
对于有如下要求的应用程序StatefulSet 非常适用:
* 稳定、唯一的网络标识dnsname
* 稳定、不变的持久化路径(或存储卷)
* 按顺序地增加副本、减少副本,并在减少副本时执行清理
* 按顺序自动地执行滚动更新
如果一个应用程序不需要稳定的网络标识,或者不需要按顺序部署、删除、增加副本,您应该考虑使用 Deployment 这类无状态stateless的控制器。
## StatefulSet 的限制
* Pod 的存储要么由 storage class 对应的 [PersistentVolume Provisioner](https://github.com/kubernetes/examples/blob/master/staging/persistent-volume-provisioning/README.md) 提供,要么由集群管理员事先创建
* 删除或 scale down 一个 StatefulSet 将不会删除其对应的数据卷。这样做的考虑是数据安全
* 删除 StatefulSet 时,将无法保证 Pod 的终止是正常的。如果要按顺序 gracefully 终止 StatefulSet 中的 Pod可以在删除 StatefulSet 前将其 scale down 到 0
* 当使用默认的 [Pod Management Policy](./update.html) (OrderedReady) 进行滚动更新时,可能进入一个错误状态,并需要[人工介入](./update.html)才能修复

View File

@ -7,7 +7,37 @@ description: 本文描述了 Kubernetes StatefulSet 的部署和伸缩
[返回 StatefulSet](./)
正在撰写...
## 部署和伸缩 StatefulSet 时的执行顺序
* 在创建一个副本数为 N 的 StatefulSet 时,其 Pod 将被按 {0 ... N-1} 的顺序逐个创建
* 在删除一个副本数为 N 的 StatefulSet (或其中所有的 Pod其 Pod 将按照相反的顺序(即 {N-1 ... 0})终止和删除
* 在对 StatefulSet 执行扩容scale up操作时新增 Pod 所有的前序 Pod 必须处于 Running运行和 Ready就绪的状态
* 终止和删除 StatefulSet 中的某一个 Pod 时,该 Pod 所有的后序 Pod 必须全部已终止
StatefulSet 中 `pod.spec.terminationGracePeriodSeconds` 不能为 0。具体原因请参考 [force deleting StatefulSet Pods](https://kubernetes.io/docs/tasks/run-application/force-delete-stateful-set-pod/)
[创建 StatefulSet](./basics.html) 例子中的 nginx StatefulSet 被创建时:
* Pod web-0、web-1、web-2 将被按顺序部署
* web-0 处于 Running 和 Ready 状态之前web-1 不会创建web-1 处于 Running 和 Ready 状态之前web-2 不会创建
* 如果 web-1 已处于 Running 和 Ready 的状态web-2 尚未创建,此时 web-0 发生了故障,则在 web-0 成功重启并达到 Running 和 Ready 的状态之前web-2 不会创建
* 如果用户对这个 StatefulSet 执行缩容scale down操作将其副本数调整为 1
* web-2 将被首先终止;在 web-2 已终止并删除之后,才开始终止 web-1
* 假设在 web-2 终止并删除之后web-1 终止之前,此时 web-0 出现故障,则,在 web-0 重新回到 Running 和 Ready 的状态之前kubernetes 将不会终止 web-1
## Pod 管理策略
在 Kubernetes 1.7 及其后续版本中,可以为 StatefulSet 设定 `.spec.podManagementPolicy` 字段<Badge text="Kuboard 暂不支持" type="warn"/>,以便您可以继续使用 StatefulSet 唯一 ID 的特性,但禁用其有序创建和销毁 Pod 的特性。该字段的取值如下:
* **OrderedReady**
OrderedReady 是 `.spec.podManagementPlicy` 的默认值。其对 Pod 的管理方式已经在 [部署和伸缩 StatefulSet 时的执行顺序](./scaling.html#部署和伸缩-statefulset-时的执行顺序) 详细描述
* **Parallel**
`.spec.podManagementPlicy` 的取值为 Parallel则 StatefulSet Controller 将同时并行地创建或终止其所有的 Pod。此时 StatefulSet Controller 将不会逐个创建 Pod等待 Pod 进入 Running 和 Ready 状态之后再创建下一个 Pod也不会逐个终止 Pod。
::: tip
此选项只影响到伸缩scale up/scale down操作。更新操作不受影响。
:::
[返回 StatefulSet](./)

View File

@ -7,7 +7,44 @@ description: 本文描述了 Kubernetes StatefulSet 的更新
[返回 StatefulSet](./)
正在撰写...
## StatefulSet 的更新策略 <Badge text="Kuboard 暂不支持" type="warn"/>
在 Kubernetes 1.7 及之后的版本中,可以为 StatefulSet 设定 `.spec.updateStrategy` 字段,以便您可以在改变 StatefulSet 中 Pod 的某些字段时container/labels/resource request/resource limit/annotation等禁用滚动更新。
### On Delete
OnDelete 策略实现了 StatefulSet 的遗留版本kuberentes 1.6及以前的版本)的行为。如果 StatefulSet 的 `.spec.updateStrategy.type` 字段被设置为 OnDelete当您修改 `.spec.template` 的内容时StatefulSet Controller 将不会自动更新其 Pod。您必须手工删除 Pod此时 StatefulSet Controller 在重新创建 Pod 时,使用修改过的 `.spec.template` 的内容创建新 Pod。
### Rolling Updates
`.spec.updateStrategy.type` 字段的默认值是 RollingUpdate该策略为 StatefulSet 实现了 Pod 的自动滚动更新。在用户更新 StatefulSet 的 `.spec.tempalte` 字段时StatefulSet Controller 将自动地删除并重建 StatefulSet 中的每一个 Pod。处理顺序如下
* 从序号最大的 Pod 开始,逐个删除和更新每一个 Pod直到序号最小的 Pod 被更新
* 当正在更新的 Pod 达到了 Running 和 Ready 的状态之后,才继续更新其前序 Pod
* **Partitions**
通过指定 `.spec.updateStrategy.rollingUpdate.partition` 字段可以分片partitioned执行RollingUpdate 更新策略。当更新 StatefulSet 的 `.spec.template` 时:
* 序号大于或等于 `.spec.updateStrategy.rollingUpdate.partition` 的 Pod 将被删除重建
* 序号小于 `.spec.updateStrategy.rollingUpdate.partition` 的 Pod 将不会更新,及时手工删除该 Podkubernetes 也会使用前一个版本的 `.spec.template` 重建该 Pod
* 如果 `.spec.updateStrategy.rollingUpdate.partition` 大于 `.spec.replicas`,更新 `.spec.tempalte` 将不会影响到任何 Pod
::: tip
大部分情况下,您不需要使用 `.spec.updateStrategy.rollingUpdate.partition`,除非您碰到如下场景:
* 执行预发布
* 执行金丝雀更新
* 执行按阶段的更新
:::
* **Forced Rollback** <Badge text="Kuboard 已支持" type="success"/>
当使用默认的 Pod 管理策略时OrderedReady很有可能会进入到一种卡住的状态需要人工干预才能修复。
如果您更新 Pod template 后,该 Pod 始终不能进入 Running 和 Ready 的状态例如镜像错误或应用程序配置错误StatefulSet 将停止滚动更新并一直等待。
此时,如果您仅仅将 Pod template 回退到一个正确的配置仍然是不够的。由于一个已知的问题StatefulSet 将继续等待出错的 Pod 进入就绪状态(该状态将永远无法出现),才尝试将该 Pod 回退到正确的配置。
在修复 Pod template 以后,您还必须删除掉所有已经尝试使用有问题的 Pod template 的 Pod。StatefulSet此时才会开始使用修复了的 Pod template 重建 Pod。
[返回 StatefulSet](./)