极客时间已完结课程限时免费阅读

23 | 声明式API与Kubernetes编程范式

23 | 声明式API与Kubernetes编程范式-极客时间

23 | 声明式API与Kubernetes编程范式

讲述:张磊

时长16:43大小7.66M

你好,我是张磊。今天我和你分享的主题是:声明式 API 与 Kubernetes 编程范式。
在前面的几篇文章中,我和你分享了很多 Kubernetes 的 API 对象。这些 API 对象,有的是用来描述应用,有的则是为应用提供各种各样的服务。但是,无一例外地,为了使用这些 API 对象提供的能力,你都需要编写一个对应的 YAML 文件交给 Kubernetes。
这个 YAML 文件,正是 Kubernetes 声明式 API 所必须具备的一个要素。不过,是不是只要用 YAML 文件代替了命令行操作,就是声明式 API 了呢?
举个例子。我们知道,Docker Swarm 的编排操作都是基于命令行的,比如:
$ docker service create --name nginx --replicas 2 nginx
$ docker service update --image nginx:1.7.9 nginx
像这样的两条命令,就是用 Docker Swarm 启动了两个 Nginx 容器实例。其中,第一条 create 命令创建了这两个容器,而第二条 update 命令则把它们“滚动更新”成了一个新的镜像。
对于这种使用方式,我们称为命令式命令行操作
那么,像上面这样的创建和更新两个 Nginx 容器的操作,在 Kubernetes 里又该怎么做呢?
这个流程,相信你已经非常熟悉了:我们需要在本地编写一个 Deployment 的 YAML 文件:
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
spec:
selector:
matchLabels:
app: nginx
replicas: 2
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
然后,我们还需要使用 kubectl create 命令在 Kubernetes 里创建这个 Deployment 对象:
$ kubectl create -f nginx.yaml
这样,两个 Nginx 的 Pod 就会运行起来了。
而如果要更新这两个 Pod 使用的 Nginx 镜像,该怎么办呢?
我们前面曾经使用过 kubectl set image 和 kubectl edit 命令,来直接修改 Kubernetes 里的 API 对象。不过,相信很多人都有这样的想法,我能不能通过修改本地 YAML 文件来完成这个操作呢?这样我的改动就会体现在这个本地 YAML 文件里了。
当然可以。
比如,我们可以修改这个 YAML 文件里的 Pod 模板部分,把 Nginx 容器的镜像改成 1.7.9,如下所示:
...
spec:
containers:
- name: nginx
image: nginx:1.7.9
而接下来,我们就可以执行一句 kubectl replace 操作,来完成这个 Deployment 的更新:
$ kubectl replace -f nginx.yaml
可是,上面这种基于 YAML 文件的操作方式,是“声明式 API”吗?
并不是。
对于上面这种先 kubectl create,再 replace 的操作,我们称为命令式配置文件操作。
也就是说,它的处理方式,其实跟前面 Docker Swarm 的两句命令,没什么本质上的区别。只不过,它是把 Docker 命令行里的参数,写在了配置文件里而已。
那么,到底什么才是“声明式 API”呢?
答案是,kubectl apply 命令。
在前面的文章中,我曾经提到过这个 kubectl apply 命令,并推荐你使用它来代替 kubectl create 命令(你也可以借此机会再回顾一下第 12 篇文章《牛刀小试:我的第一个容器化应用》中的相关内容)。
现在,我就使用 kubectl apply 命令来创建这个 Deployment:
$ kubectl apply -f nginx.yaml
这样,Nginx 的 Deployment 就被创建了出来,这看起来跟 kubectl create 的效果一样。
然后,我再修改一下 nginx.yaml 里定义的镜像:
...
spec:
containers:
- name: nginx
image: nginx:1.7.9
这时候,关键来了。
在修改完这个 YAML 文件之后,我不再使用 kubectl replace 命令进行更新,而是继续执行一条 kubectl apply 命令,即:
$ kubectl apply -f nginx.yaml
这时,Kubernetes 就会立即触发这个 Deployment 的“滚动更新”。
可是,它跟 kubectl replace 命令有什么本质区别吗?
实际上,你可以简单地理解为,kubectl replace 的执行过程,是使用新的 YAML 文件中的 API 对象,替换原有的 API 对象;而 kubectl apply,则是执行了一个对原有 API 对象的 PATCH 操作
类似地,kubectl set image 和 kubectl edit 也是对已有 API 对象的修改。
更进一步地,这意味着 kube-apiserver 在响应命令式请求(比如,kubectl replace)的时候,一次只能处理一个写请求,否则会有产生冲突的可能。而对于声明式请求(比如,kubectl apply),一次能处理多个写操作,并且具备 Merge 能力
这种区别,可能乍一听起来没那么重要。而且,正是由于要照顾到这样的 API 设计,做同样一件事情,Kubernetes 需要的步骤往往要比其他项目多不少。
但是,如果你仔细思考一下 Kubernetes 项目的工作流程,就不难体会到这种声明式 API 的独到之处。
接下来,我就以 Istio 项目为例,来为你讲解一下声明式 API 在实际使用时的重要意义。
在 2017 年 5 月,Google、IBM 和 Lyft 公司,共同宣布了 Istio 开源项目的诞生。很快,这个项目就在技术圈儿里,掀起了一阵名叫“微服务”的热潮,把 Service Mesh 这个新的编排概念推到了风口浪尖。
而 Istio 项目,实际上就是一个基于 Kubernetes 项目的微服务治理框架。它的架构非常清晰,如下所示:
在上面这个架构图中,我们不难看到 Istio 项目架构的核心所在。Istio 最根本的组件,是运行在每一个应用 Pod 里的 Envoy 容器
这个 Envoy 项目是 Lyft 公司推出的一个高性能 C++ 网络代理,也是 Lyft 公司对 Istio 项目的唯一贡献。
而 Istio 项目,则把这个代理服务以 sidecar 容器的方式,运行在了每一个被治理的应用 Pod 中。我们知道,Pod 里的所有容器都共享同一个 Network Namespace。所以,Envoy 容器就能够通过配置 Pod 里的 iptables 规则,把整个 Pod 的进出流量接管下来。
这时候,Istio 的控制层(Control Plane)里的 Pilot 组件,就能够通过调用每个 Envoy 容器的 API,对这个 Envoy 代理进行配置,从而实现微服务治理。
我们一起来看一个例子。
假设这个 Istio 架构图左边的 Pod 是已经在运行的应用,而右边的 Pod 则是我们刚刚上线的应用的新版本。这时候,Pilot 通过调节这两 Pod 里的 Envoy 容器的配置,从而将 90% 的流量分配给旧版本的应用,将 10% 的流量分配给新版本应用,并且,还可以在后续的过程中随时调整。这样,一个典型的“灰度发布”的场景就完成了。比如,Istio 可以调节这个流量从 90%-10%,改到 80%-20%,再到 50%-50%,最后到 0%-100%,就完成了这个灰度发布的过程。
更重要的是,在整个微服务治理的过程中,无论是对 Envoy 容器的部署,还是像上面这样对 Envoy 代理的配置,用户和应用都是完全“无感”的。
这时候,你可能会有所疑惑:Istio 项目明明需要在每个 Pod 里安装一个 Envoy 容器,又怎么能做到“无感”的呢?
实际上,Istio 项目使用的,是 Kubernetes 中的一个非常重要的功能,叫作 Dynamic Admission Control。
在 Kubernetes 项目中,当一个 Pod 或者任何一个 API 对象被提交给 APIServer 之后,总有一些“初始化”性质的工作需要在它们被 Kubernetes 项目正式处理之前进行。比如,自动为所有 Pod 加上某些标签(Labels)。
而这个“初始化”操作的实现,借助的是一个叫作 Admission 的功能。它其实是 Kubernetes 项目里一组被称为 Admission Controller 的代码,可以选择性地被编译进 APIServer 中,在 API 对象创建之后会被立刻调用到。
但这就意味着,如果你现在想要添加一些自己的规则到 Admission Controller,就会比较困难。因为,这要求重新编译并重启 APIServer。显然,这种使用方法对 Istio 来说,影响太大了。
所以,Kubernetes 项目为我们额外提供了一种“热插拔”式的 Admission 机制,它就是 Dynamic Admission Control,也叫作:Initializer。
现在,我给你举个例子。比如,我有如下所示的一个应用 Pod:
apiVersion: v1
kind: Pod
metadata:
name: myapp-pod
labels:
app: myapp
spec:
containers:
- name: myapp-container
image: busybox
command: ['sh', '-c', 'echo Hello Kubernetes! && sleep 3600']
可以看到,这个 Pod 里面只有一个用户容器,叫作:myapp-container。
接下来,Istio 项目要做的,就是在这个 Pod YAML 被提交给 Kubernetes 之后,在它对应的 API 对象里自动加上 Envoy 容器的配置,使这个对象变成如下所示的样子:
apiVersion: v1
kind: Pod
metadata:
name: myapp-pod
labels:
app: myapp
spec:
containers:
- name: myapp-container
image: busybox
command: ['sh', '-c', 'echo Hello Kubernetes! && sleep 3600']
- name: envoy
image: lyft/envoy:845747b88f102c0fd262ab234308e9e22f693a1
command: ["/usr/local/bin/envoy"]
...
可以看到,被 Istio 处理后的这个 Pod 里,除了用户自己定义的 myapp-container 容器之外,多出了一个叫作 envoy 的容器,它就是 Istio 要使用的 Envoy 代理。
那么,Istio 又是如何在用户完全不知情的前提下完成这个操作的呢?
Istio 要做的,就是编写一个用来为 Pod“自动注入”Envoy 容器的 Initializer。
首先,Istio 会将这个 Envoy 容器本身的定义,以 ConfigMap 的方式保存在 Kubernetes 当中。这个 ConfigMap(名叫:envoy-initializer)的定义如下所示:
apiVersion: v1
kind: ConfigMap
metadata:
name: envoy-initializer
data:
config: |
containers:
- name: envoy
image: lyft/envoy:845747db88f102c0fd262ab234308e9e22f693a1
command: ["/usr/local/bin/envoy"]
args:
- "--concurrency 4"
- "--config-path /etc/envoy/envoy.json"
- "--mode serve"
ports:
- containerPort: 80
protocol: TCP
resources:
limits:
cpu: "1000m"
memory: "512Mi"
requests:
cpu: "100m"
memory: "64Mi"
volumeMounts:
- name: envoy-conf
mountPath: /etc/envoy
volumes:
- name: envoy-conf
configMap:
name: envoy
相信你已经注意到了,这个 ConfigMap 的 data 部分,正是一个 Pod 对象的一部分定义。其中,我们可以看到 Envoy 容器对应的 containers 字段,以及一个用来声明 Envoy 配置文件的 volumes 字段。
不难想到,Initializer 要做的工作,就是把这部分 Envoy 相关的字段,自动添加到用户提交的 Pod 的 API 对象里。可是,用户提交的 Pod 里本来就有 containers 字段和 volumes 字段,所以 Kubernetes 在处理这样的更新请求时,就必须使用类似于 git merge 这样的操作,才能将这两部分内容合并在一起。
所以说,在 Initializer 更新用户的 Pod 对象的时候,必须使用 PATCH API 来完成。而这种 PATCH API,正是声明式 API 最主要的能力。
接下来,Istio 将一个编写好的 Initializer,作为一个 Pod 部署在 Kubernetes 中。这个 Pod 的定义非常简单,如下所示:
apiVersion: v1
kind: Pod
metadata:
labels:
app: envoy-initializer
name: envoy-initializer
spec:
containers:
- name: envoy-initializer
image: envoy-initializer:0.0.1
imagePullPolicy: Always
我们可以看到,这个 envoy-initializer 使用的 envoy-initializer:0.0.1 镜像,就是一个事先编写好的“自定义控制器”(Custom Controller),我将会在下一篇文章中讲解它的编写方法。而在这里,我要先为你解释一下这个控制器的主要功能。
我曾在第 16 篇文章《编排其实很简单:谈谈“控制器”模型》中和你分享过,一个 Kubernetes 的控制器,实际上就是一个“死循环”:它不断地获取“实际状态”,然后与“期望状态”作对比,并以此为依据决定下一步的操作。
而 Initializer 的控制器,不断获取到的“实际状态”,就是用户新创建的 Pod。而它的“期望状态”,则是:这个 Pod 里被添加了 Envoy 容器的定义。
我还是用一段 Go 语言风格的伪代码,来为你描述这个控制逻辑,如下所示:
for {
// 获取新创建的Pod
pod := client.GetLatestPod()
// Diff一下,检查是否已经初始化过
if !isInitialized(pod) {
// 没有?那就来初始化一下
doSomething(pod)
}
}
如果这个 Pod 里面已经添加过 Envoy 容器,那么就“放过”这个 Pod,进入下一个检查周期。
而如果还没有添加过 Envoy 容器的话,它就要进行 Initialize 操作了,即:修改该 Pod 的 API 对象(doSomething 函数)。
这时候,你应该立刻能想到,Istio 要往这个 Pod 里合并的字段,正是我们之前保存在 envoy-initializer 这个 ConfigMap 里的数据(即:它的 data 字段的值)。
所以,在 Initializer 控制器的工作逻辑里,它首先会从 APIServer 中拿到这个 ConfigMap:
func doSomething(pod) {
cm := client.Get(ConfigMap, "envoy-initializer")
}
然后,把这个 ConfigMap 里存储的 containers 和 volumes 字段,直接添加进一个空的 Pod 对象里:
func doSomething(pod) {
cm := client.Get(ConfigMap, "envoy-initializer")
newPod := Pod{}
newPod.Spec.Containers = cm.Containers
newPod.Spec.Volumes = cm.Volumes
}
现在,关键来了。
Kubernetes 的 API 库,为我们提供了一个方法,使得我们可以直接使用新旧两个 Pod 对象,生成一个 TwoWayMergePatch:
func doSomething(pod) {
cm := client.Get(ConfigMap, "envoy-initializer")
newPod := Pod{}
newPod.Spec.Containers = cm.Containers
newPod.Spec.Volumes = cm.Volumes
// 生成patch数据
patchBytes := strategicpatch.CreateTwoWayMergePatch(pod, newPod)
// 发起PATCH请求,修改这个pod对象
client.Patch(pod.Name, patchBytes)
}
有了这个 TwoWayMergePatch 之后,Initializer 的代码就可以使用这个 patch 的数据,调用 Kubernetes 的 Client,发起一个 PATCH 请求
这样,一个用户提交的 Pod 对象里,就会被自动加上 Envoy 容器相关的字段。
当然,Kubernetes 还允许你通过配置,来指定要对什么样的资源进行这个 Initialize 操作,比如下面这个例子:
apiVersion: admissionregistration.k8s.io/v1alpha1
kind: InitializerConfiguration
metadata:
name: envoy-config
initializers:
// 这个名字必须至少包括两个 "."
- name: envoy.initializer.kubernetes.io
rules:
- apiGroups:
- "" // 前面说过, ""就是core API Group的意思
apiVersions:
- v1
resources:
- pods
这个配置,就意味着 Kubernetes 要对所有的 Pod 进行这个 Initialize 操作,并且,我们指定了负责这个操作的 Initializer,名叫:envoy-initializer。
而一旦这个 InitializerConfiguration 被创建,Kubernetes 就会把这个 Initializer 的名字,加在所有新创建的 Pod 的 Metadata 上,格式如下所示:
apiVersion: v1
kind: Pod
metadata:
initializers:
pending:
- name: envoy.initializer.kubernetes.io
name: myapp-pod
labels:
app: myapp
...
可以看到,每一个新创建的 Pod,都会自动携带了 metadata.initializers.pending 的 Metadata 信息。
这个 Metadata,正是接下来 Initializer 的控制器判断这个 Pod 有没有执行过自己所负责的初始化操作的重要依据(也就是前面伪代码中 isInitialized() 方法的含义)。
这也就意味着,当你在 Initializer 里完成了要做的操作后,一定要记得将这个 metadata.initializers.pending 标志清除掉。这一点,你在编写 Initializer 代码的时候一定要非常注意。
此外,除了上面的配置方法,你还可以在具体的 Pod 的 Annotation 里添加一个如下所示的字段,从而声明要使用某个 Initializer:
apiVersion: v1
kind: Pod
metadata
annotations:
"initializer.kubernetes.io/envoy": "true"
...
在这个 Pod 里,我们添加了一个 Annotation,写明: initializer.kubernetes.io/envoy=true。这样,就会使用到我们前面所定义的 envoy-initializer 了。
以上,就是关于 Initializer 最基本的工作原理和使用方法了。相信你此时已经明白,Istio 项目的核心,就是由无数个运行在应用 Pod 中的 Envoy 容器组成的服务代理网格。这也正是 Service Mesh 的含义。
备注:如果你对这个 Demo 感兴趣,可以在这个 GitHub 链接里找到它的所有源码和文档。这个 Demo,是我 fork 自 Kelsey Hightower 的一个同名的 Demo。
而这个机制得以实现的原理,正是借助了 Kubernetes 能够对 API 对象进行在线更新的能力,这也正是 Kubernetes“声明式 API”的独特之处:
首先,所谓“声明式”,指的就是我只需要提交一个定义好的 API 对象来“声明”,我所期望的状态是什么样子。
其次,“声明式 API”允许有多个 API 写端,以 PATCH 的方式对 API 对象进行修改,而无需关心本地原始 YAML 文件的内容。
最后,也是最重要的,有了上述两个能力,Kubernetes 项目才可以基于对 API 对象的增、删、改、查,在完全无需外界干预的情况下,完成对“实际状态”和“期望状态”的调谐(Reconcile)过程。
所以说,声明式 API,才是 Kubernetes 项目编排能力“赖以生存”的核心所在,希望你能够认真理解。
此外,不难看到,无论是对 sidecar 容器的巧妙设计,还是对 Initializer 的合理利用,Istio 项目的设计与实现,其实都依托于 Kubernetes 的声明式 API 和它所提供的各种编排能力。可以说,Istio 是在 Kubernetes 项目使用上的一位“集大成者”。
要知道,一个 Istio 项目部署完成后,会在 Kubernetes 里创建大约 43 个 API 对象。
所以,Kubernetes 社区也看得很明白:Istio 项目有多火热,就说明 Kubernetes 这套“声明式 API”有多成功。这,既是 Google Cloud 喜闻乐见的事情,也是 Istio 项目一推出就被 Google 公司和整个技术圈儿热捧的重要原因。
而在使用 Initializer 的流程中,最核心的步骤,莫过于 Initializer“自定义控制器”的编写过程。它遵循的,正是标准的“Kubernetes 编程范式”,即:
如何使用控制器模式,同 Kubernetes 里 API 对象的“增、删、改、查”进行协作,进而完成用户业务逻辑的编写过程。
这,也正是我要在后面文章中为你详细讲解的内容。

总结

在今天这篇文章中,我为你重点讲解了 Kubernetes 声明式 API 的含义。并且,通过对 Istio 项目的剖析,我为你说明了它使用 Kubernetes 的 Initializer 特性,完成 Envoy 容器“自动注入”的原理。
事实上,从“使用 Kubernetes 部署代码”,到“使用 Kubernetes 编写代码”的蜕变过程,正是你从一个 Kubernetes 用户,到 Kubernetes 玩家的晋级之路。
而,如何理解“Kubernetes 编程范式”,如何为 Kubernetes 添加自定义 API 对象,编写自定义控制器,正是这个晋级过程中的关键点,也是我要在后面几篇文章中分享的核心内容。
此外,基于今天这篇文章所讲述的 Istio 的工作原理,尽管 Istio 项目一直宣称它可以运行在非 Kubernetes 环境中,但我并不建议你花太多时间去做这个尝试。
毕竟,无论是从技术实现还是在社区运作上,Istio 与 Kubernetes 项目之间都是紧密的、唇齿相依的关系。如果脱离了 Kubernetes 项目这个基础,那么这条原本就不算平坦的“微服务”之路,恐怕会更加困难重重。

思考题

你是否对 Envoy 项目做过了解?你觉得为什么它能够击败 Nginx 以及 HAProxy 等竞品,成为 Service Mesh 体系的核心?
感谢你的收听,欢迎你给我留言,也欢迎分享给更多的朋友一起阅读。
分享给需要的人,Ta购买本课程,你将得20
生成海报并分享

赞 73

提建议

上一篇
22 | 撬动离线业务:Job与CronJob
下一篇
24 | 深入解析声明式API(一):API对象的奥秘
unpreview
 写留言

精选留言(59)

  • 周龙亭
    2018-11-26
    是因为envoy提供了api形式的配置入口,更方便做流量治理

    作者回复: 是的

    共 5 条评论
    113
  • 虎虎❤️
    2018-10-15
    老师,用声明式api的好处没有体会太深刻。 如果在dosomething中merge出新的yaml,然后用replace会有什么缺点? 好像在这篇文章中仅仅提到声明式的可以多个客户端同时写。除此之外,还有其他优点吗? 也就是说修改对象比替换对象的优势在哪?

    作者回复: istio不就是例子?系统里完全可以有好几个initializer在改同一个pod,你直接replace了别人还玩不玩了?

    共 11 条评论
    72
  • Geek_zz
    2018-10-15
    居然看一遍就记住了这节课的原理
    46
  • swordholder
    2018-10-15
    有个疑问,在envoy-initializer的“控制循环”中获取新创建的Pod,这个Pod是否已经在正常运行了? Initializer 提交patch修改Pod对象,Kubernetes发现Pod更新,然后以“滚动升级”的方式更新运行中的Pod?

    作者回复: 不会啊。注意看apiserver的流程图,initializer发生在admission阶段,这个阶段完成后pod才会创建出来。

    共 2 条评论
    42
  • ch_ort
    2020-10-04
    通俗地说:如果要把一个东西存入冰箱。命令式API需要做的是:打开冰箱 -> 放入东西 -> 关掉冰箱。而声明式就是: 这个东西在冰箱里。 命令式请求与声明式请求: (1)服务对于命令式请求,一次只能处理一个写请求,否则可能会导致冲突 (2)服务对于声明式请求,一次能处理多个请求,并且具备Merge的能力 kubectl replace命令与kubectl apply命令的本质区别在于,kubectl replace的执行过程,是使用新的YAML文件中的API对象,替换原有的API对象;而kubectl apply,则是执行了一个对原有API对象的PATCH(部分更新)操作 声明式API特点: (1)我们只需要提交一个定义好的API对象来“声明”,我所期望的状态是什么样子 (2)声明式API允许由多个API写端,以PATCH的方式对API对象进行修改,而无需关心本地原始YAML文件的内容 (3)有了上述两个能力,Kubernetes项目才可以给予对API对象的增、删、改、查,在完全无需外界干预的情况下,完成对“实际状态”和“期望状态”的调谐(Reconcile)过程
    展开
    共 1 条评论
    41
  • 虎虎❤️
    2018-10-16
    kubectl apply 是通过mvcc 实现的并发写吗?

    作者回复: 是啊

    共 2 条评论
    38
  • 混沌渺无极
    2018-10-16
    dynamic admission control有点像防火墙的DNAT,数据包即将进入路由表的瞬间被修改了目的地址,这样路由表就对数据包的修改[无感]。 patch就像多人使用git来进行文件的"合并型"修改。

    作者回复: 就是这么回事儿

    共 2 条评论
    37
  • huan
    2018-10-15
    又查了下envoy的设计,感觉它支持热更新和热重启,应该很适合声明式规则的开发范式,这可以看做一种优势,相比而言,nginx的reload需要把worker进程退出,比较面向命令

    作者回复: 这确实是一个因素

    共 4 条评论
    22
  • DJH
    2018-10-15
    请教老师,Initializer和Preset都能注入POD配置,那么这两种方法的适用场景有何不同?

    作者回复: preset相当于initializer的子集,比较适合在发布流程里处理比较简单的情况。initializer是要写代码的。

    共 2 条评论
    20
  • Lis
    2018-11-09
    老师好,课后作业的方式非常棒,可否在下一节课的开始先总结一下课后作业呢?
    17
  • lucasun
    2020-03-03
    Initializer不是一直bata然后废弃了嘛,istio用的是MutatingAdmissionWebhook吧

    作者回复: Istio 现在是admission hook。这部分功能变化太多了,最好是自己写个sidecar operator 来管理。

    共 2 条评论
    17
  • Alex
    2018-11-14
    Initializer与新的pod 在git merge冲突了该怎么解决?

    作者回复: 就不会注入成功了

    共 2 条评论
    16
  • 羽翼1982
    2018-11-27
    所以这个问题的答案是什么呢? 我的理解是Envy性能更高,占用系统资源更少

    作者回复: 编程友好的api,方便容器化,配置方便

    15
  • 闫飞
    2019-01-16
    服务网格最初是由linkerd项目提出概念的,lstio是另外一个后起之秀,使大家都关注到了边车代理模式和服务治理的新方法的巨大威力。文中应该笔误写错为微服务了。 不过瑕不掩瑜,本节写的极其精彩和深入浅出。

    作者回复: service mesh is just a fancy way of microservice

    10
  • 公众号:云原生Server...
    2018-10-15
    磊哥竟然穿插了istio的讲解,后续有没有计划讲讲knative呢

    作者回复: knative没啥特别的,暂时就不给篇幅了

    8
  • 虎虎❤️
    2018-10-15
    老师,为什么修改对象可以多个客户端同时写,而替换不行?感觉还差一层窗户纸,老师帮我捅破:) 或者有什么资料可以让我更深入理解下吗?

    作者回复: 你的错误之处在于,patch数据只可能被PATCH API认识。你总想着让replace也能用patch数据,那replace不就成了patch api了?

    共 3 条评论
    7
  • Zhikun Lao
    2019-05-12
    老师你好! ”如果你对这个 Demo 感兴趣,可以在这个 GitHub 链接里找到它的所有源码和文档。这个 Demo,是我 fork 自 Kelsey Hightower 的一个同名的 Demo“ 我看这个initializer的plugin都已经没了,现在是不是都要写Admission hook了? https://kubernetes.io/docs/reference/access-authn-authz/extensible-admission-controllers/# 例如这个 https://github.com/kubernetes/kubernetes/blob/v1.13.0/test/images/webhook/main.go
    展开
    共 1 条评论
    5
  • gotojeff
    2018-10-17
    Hi 老师 ‘’‘有个疑问: name 为envoy的configmap是在哪里定义的呢? 2018-10-16  作者回复 文中不是贴出来了? ’‘’ configmap模板中的 metadata - name是envoy-initializer,但是在下面的container volumes中的configmap name是envoy,我的疑惑是这是2个不同的configmap吧?后者是在其他地方定义的?
    展开

    作者回复: 哦哦,这个忘记贴了。没错,这个configmap需要使用envoy的配置文件创建出来,配置文件网上可以下到。kubectl create configmap envoy —from-file envoy.json

    5
  • 参悟
    2018-10-15
    我想envoy的成功,是因为它真正理解了k8s的技术精髓,并成功的应用到了当前最火的微服务领域,将微服务体系与K8S捆绑在一起,service mesh成为微服务新一代技术的代言,这无论从技术上还是战略上都赢得了google的芳心,成功也就水到渠成。

    作者回复: 但其实envoy发布的不算晚,称不上搭便车。

    5
  • silver
    2018-10-16
    kubectl apply怎么做concurrency control呢?假设client A和B都有version 1的spec。然后他们在各自修改了spec之后call apply。假设client A的patch操作先成功,如果kubectl简单的与etcd里有的spec做一个diff,会不会出现一个client B把client A的更新个revert的情况?

    作者回复: API对象都有revision,所以apiserver处理merge的流程跟git server是一样的。这跟kubectl这关系,它只是个客户端。

    4