diff --git a/.vuepress/components/AdSensePageTop.vue b/.vuepress/components/AdSensePageTop.vue
index 7da3d31..21f9bc9 100644
--- a/.vuepress/components/AdSensePageTop.vue
+++ b/.vuepress/components/AdSensePageTop.vue
@@ -1,6 +1,6 @@
-
+
+
+
+
@@ -22,5 +32,6 @@ export default {
diff --git a/.vuepress/components/AdSenseRightSide.vue b/.vuepress/components/AdSenseRightSide.vue
index 5cb59a1..1abbb90 100644
--- a/.vuepress/components/AdSenseRightSide.vue
+++ b/.vuepress/components/AdSenseRightSide.vue
@@ -28,11 +28,11 @@ export default {
.adsense-right {
width: 500px;
- max-width: calc(50vw - 720px);
+ max-width: calc(50vw - 690px);
height: 50vh;
position: fixed;
top: 10vh;
- right: 1rem;
+ right: 0.2rem;
/* background-color: grey; */
}
diff --git a/.vuepress/config.js b/.vuepress/config.js
index b41a9f1..24ce586 100644
--- a/.vuepress/config.js
+++ b/.vuepress/config.js
@@ -17,8 +17,15 @@ module.exports = {
})();
`],
['link', {rel: "stylesheet", href: "/java-script-dist/swiper-4.5.0/css/swiper.min.css"}],
- ['script', {src: '/java-script-dist/swiper-4.5.0/js/swiper.min.js'}],
- // ['script', {type: 'text/javascript', src: 'https://tajs.qq.com/stats?sId=66467492', charset: 'UTF-8'}]
+ ['script', {src: '/java-script-dist/swiper-4.5.0/js/swiper.min.js', async: true}],
+ // ['script', {src: "https://www.googletagmanager.com/gtag/js?id=UA-144196556-1", async: true}],
+ // ['script', {}, `
+ // window.dataLayer = window.dataLayer || [];
+ // function gtag(){dataLayer.push(arguments);}
+ // gtag('js', new Date());
+
+ // gtag('config', 'UA-144196556-1');
+ // `],
['script', { 'data-ad-client': "ca-pub-3313149841665250", async: true, src: "https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js"}],
//
],
@@ -431,6 +438,13 @@ module.exports = {
'k8s-advanced/logs/cluster',
]
},
+ {
+ title: '调度',
+ collapsable: true,
+ children: [
+ 'k8s-advanced/schedule/',
+ ]
+ },
]
},
{
diff --git a/install/upgrade-k8s/1.15.x-1.16.x.md b/install/upgrade-k8s/1.15.x-1.16.x.md
index 9709831..dc5ee59 100644
--- a/install/upgrade-k8s/1.15.x-1.16.x.md
+++ b/install/upgrade-k8s/1.15.x-1.16.x.md
@@ -143,7 +143,7 @@ yum list --showduplicates kubeadm --disableexcludes=kubernetes
* 第一个 master 节点上执行的是 `kubeadm upgrade apply v1.16.x`,此时执行的是 `kubeadm upgrade node`
:::
-### 升级 kbuelet 和 kubectl
+### 升级 kubelet 和 kubectl
* 在所有的 master 节点上执行如下命令以升级 kubelet 和 kubectl
diff --git a/learning/k8s-advanced/schedule/index.md b/learning/k8s-advanced/schedule/index.md
new file mode 100644
index 0000000..c703246
--- /dev/null
+++ b/learning/k8s-advanced/schedule/index.md
@@ -0,0 +1,86 @@
+---
+# vssueId: 117
+layout: LearningLayout
+description: Kubernete教程_在Kubernetes中,调度(Scheduling),指的是为 Pod 找到一个合适的节点,并由该节点上的 kubelet 运行 Pod。
+meta:
+ - name: keywords
+ content: Kubernetes 教程,Kubernetes 调度,Kubernetes Scheduling
+---
+
+# 调度
+
+> 参考文档: [Kubernetes Scheduler](https://kubernetes.io/docs/concepts/scheduling/kube-scheduler/)
+
+在Kubernetes中,调度(Scheduling),指的是为 Pod 找到一个合适的节点,并由该节点上的 kubelet 运行 Pod。
+
+## 概述
+
+每当集群中有新的 Pod 创建时,Kubernetes 调度器将负责为其找到最合适的节点去运行。调度器按照本文后面描述的原则执行执行调度工作。如果您想了解为什么 Pod 被分配到了具体的某一个节点,或者您打算自己实现一个定制化的调度器,本文可以帮助您更好的理解 Kubernetes 的调度工作。
+
+## kube-scheduler
+
+[kube-scheduler](https://kubernetes.io/docs/reference/command-line-tools-reference/kube-scheduler/) 是 Kubernetes 中默认的调度器,并且运行在 Master 组件中。kube-scheduler 虽然是默认的调度器,但是,在您需要的时候,您可以实现自己的调度器以替代 kube-scheduler。
+
+对于每一个新创建的或者未调度的 Pod,kube-scheduler 为其选择一个合适的节点去运行。问题是,每一个 Pod 以及其中的每一个容器,都有不同的资源需求,在调度时,必须选择那些能够满足 Pod 的资源需求的节点才可以。
+
+集群中能够满足某一个 Pod 的资源需求的节点,我们称其为 ***可选节点***(feasible node)。如果某一个 Pod 没有合适的 ***可选节点***,则该 Pod 将一直停留在 `Pending` 状态,直到集群中出现了对于该 Pod 来说合适的 ***可选节点***。
+
+调度器在执行调度时,执行的步骤如下:
+1. 找出该 Pod 的所有 ***可选节点***
+2. 按照某种方式对每一个 ***可选节点*** 评分
+3. 选择评分最高的 ***可选节点***
+4. 将最终选择结果通知 API Server,`这个过程,我们称其为绑定(binding)`
+
+在为 ***可选节点*** 评分时,需要考虑的因素有:
+* 单个 Pod 和所有 Pod 的资源需求
+* 硬件、软件、策略(Policy,例如Limit Range、Resource Quota等)
+* 亲和与反亲和(affinity and anti-affinity)
+* 数据存储的位置
+* 工作负载之间的相互影响
+* 其他
+
+## 使用kube-scheduler调度
+
+kube-schduler在执行调度时,将上述过程分成两个阶段来执行:
+1. Filtering (筛选/过滤)
+2. Scoring (评分)
+
+Filtering(筛选/过滤)阶段,kube-scheduler找出所有对待调度的 Pod 来说合适的 ***可选节点***。例如,`PodFitsResources` 过滤器检查候选节点是否具备足够的资源可以满足 Pod 的资源需求。在筛选阶段结束后,通常可以找出多个 ***可选节点***,如果没有找到,则 Pod 一直停留在 `Pending` 状态。
+
+Scoring(评分)阶段,kube-scheduler 先按照当前可用的评分规则为每一个 ***可选节点*** 频分, 然后,按评分结果对所有的 ***可选节点*** 排序,以找出最适合 Pod 运行的节点。
+
+最后,kube-scheduler 将 Pod 分配到评分最高的 ***可选节点***。如果有多个节点评分一样且最高,kube-scheduler 将随机从中选择一个节点。
+
+### Filtering
+
+Filtering(筛选/过滤)阶段,使用的过滤器有:
+
+* **PodFitsHostPorts**: 检查Pod需要的 `hostPort` 在该节点上是否可用
+* **PodFitsHost**:检查 Pod 是否通过 hostname 指定了节点,参考 [将容器组调度到指定的节点](/learning/k8s-intermediate/config/assign-pod-node.html#指定节点-nodename)
+* **PodFitsResource**:检查节点是否满足 Pod 的资源需求(例如,CPU 和 Memory),参考 [管理容器的计算资源](/learning/k8s-intermediate/config/computing-resource.html)
+* **PodMatchNodeSelector**:检查 Pod 的节点选择器(nodeSelector)是否和节点的标签匹配,参考 [将容器组调度到指定的节点](/learning/k8s-intermediate/config/assign-pod-node.html#节点选择器-nodeselector)
+* **NoVolumeZoneConflict**:评估 Pod 所需要的 数据卷是否在节点上可用(数据卷的 failure zone restrictions)
+* **NoDiskConflict**:评估Pod请求的数据卷是否和节点已经加载的数据卷冲突
+* **MaxCSIVolumeCount**:计算节点可以挂载多少个 CSI(Container Storage Interface)数据卷,确保不会超出限定的数字
+* **CheckNodeMemoryPressure**:检查节点是否有内存紧张的情况
+* **CheckNodePIDPressure**:检查节点是否有 PID 短缺的情况
+* **CheckNodeDiskPressure**:检查节点是否有存储空间吃紧的情况(文件系统已满,或者将要满)
+* **CheckNodeCondition**:检查节点的 Condition 字段,该字段中包含关于 `文件系统已满`、`网络不可用`、`kubelet未就绪` 等相关的条件
+* **PodToleratesNodeTaints**:检查 Pod 是否容忍 Pod 的污点,请参考 [污点和容忍](/learning/k8s-intermediate/config/taints-toleration/)
+* **CheckVolumeBinding**:检查存储卷声明是否可绑定
+
+### Scoring
+
+* **SelectorSpreadPriority**:将 Pod 分散到不同的节点,主要考虑同属于一个 Service、StatefulSet、Deployment的情况
+* **InterPodAffinityPriority**:遍历 `weightedPodAffinityTerm` 并求和,找出结果最高的节点
+* **LeastRequestedPriority**:已被消耗的资源最少的节点得分最高。如果节点上的 Pod 越多,被消耗的资源越多,则评分约低
+* **MostRequestedPriority**:已被小号的额资源最多的节点得分最高。此策略会把 Pod 尽量集中到集群中的少数节点上
+* **RequestedToCapacityRatioPriority**:按 requested / capacity 的百分比评分
+* **BalancedResourceAllocation**:资源使用均衡的节点评分高
+* **NodePreferAvoidPodsPriority**:根据节点的 annotation `scheduler.alpha.kubernetes.io/preferAvoidPods` 评分。可使用此 annotation 标识哪些 Pod 不能够运行在同一个节点上
+* **NodeAffinityPriority**:基于 `PreferredDuringSchedulingIgnoredDuringExecution` 指定的 node affinity 偏好评分。参考 [将容器组调度到指定的节点](/learning/k8s-intermediate/config/assign-pod-node.html#affinity-and-anti-affinity)
+* **TaintTolerationPriority**: 根据节点上不可容忍的污点数评分
+* **ImageLocalityPriority**:有限选择已经有该 Pod 所需容器镜像的节点
+* **ServiceSpreadingPriority**:确保 Service 的所有 Pod 尽量分布在不同的节点上。
+* **CalculateAntiAffinityPriorityMap**:anti-affinty,参考[将容器组调度到指定的节点](/learning/k8s-intermediate/config/assign-pod-node.html#affinity-and-anti-affinity)
+* **EqualPriorityMap**:为每个节点指定相同的权重
diff --git a/support/index.md b/support/index.md
index 0c1b62f..fca4194 100644
--- a/support/index.md
+++ b/support/index.md
@@ -58,7 +58,7 @@ description: Kubernetes教程_本文描述了如何获得Kuboard授权