内容简介:本周作者:张磊 临石 禅鸣 至简 宋净超编辑:木环这是 Cloud Native 周报第一期。
本周作者:张磊 临石 禅鸣 至简 宋净超
编辑:木环
这是 Cloud Native 周报第一期。
业界要闻
-
在上周于旧金山举办的 Google Cloud Next 2019 大会上,Google Cloud正式发布了:
- Cloud Run 。这是一个跟Microsoft Azure ACI,AWS Fargate 类似的容器实例服务。但与 ACI 和 Fargate 基于虚拟机技术栈的实现不同,Google 的 Cloud Run 服务则是基于 Knative 这个 Kubernetes 原生的 Serverless 基础设施项目完成的。这也是业界第一个基于 Knative + Kubernetes + gVisor 体系的Serverless 服务。此外, Cloud Run 的计费模型 也颇具创新性:它不像 Fargate 那样完全按请求数目计费,而是将所有并发的请求算在一个计费单位内,这有望大大减低用户需要支付的成本。
- Traffic Director 。一个与AWS App Mesh对标的Service Mesh产品。Traffic Director通过xDS协议与数据平面的Envoy进行通讯,可分别与Google Cloud的 MIG 和 NEG 两款产品结合去提供Service Mesh的能力。Traffic Director的功能与开源Istio项目中的Pilot-discovery相似,也复用了Istio的不少技术实现(比如,通过iptables完成流量透明拦截)。Traffic Director支持全球负载均衡、集中式的集群健康检查、流量驱动的自动扩缩容等功能,帮助客户在全球部署与管理高弹性的无状态应用。
-
关于 Google Cloud Next 上其他一些比较有意思的发布,你可以阅读 TechCrunch 上的这篇文章 来进一步了解。
上游重要进展
-
KEP: Rebase K8s images to distroless Kubernetes 即将使用 gcr.io/distroless/static:latest 作为K8s核心镜像和addon镜像的统一base镜像。优势如下:
- 使得镜像体积更小,也更加安全。
- 极大的减少冗余的 K8s image的数量。
- 通过对底层镜像的统一管理,可以使得K8s image更加安全(比如 CVE 的防护),更易于维护。
-
Kustomize: Generator and Transformer Plugins 将Kustomize进行解耦,各项功能由各个plugin进行实现,现有的基础功能会作为内置插件。这意味着 Kubernetes 在向基于 Kustomize 的原生应用管理能力上又迈出了坚实的一步。
-
Port Troubleshooting Running Pods proposal to KEP 为kubectl添加一个debug命令,开发者可以用这个命令来和特定pod中的所有容器进行交互和访问。这里的关键设计,在于Kubernetes 巧妙的利用了 sidecar 容器实现了对应用的非侵入式的debug,非常值得学习。
-
keps: sig-node: initial pod overhead proposal 这个KEP (Kubernetes Enhancement Proposal)设计了一套机制,使 Pod 能够对系统层面的 额外资源消耗(overhead)进行审计。这里的 overhead 主要包括以下两个部分。
- 系统组件比如 kubelet,Docker, Linux Kernel,以及 Fluentd 等日志组件带来的 额外资源消耗
- 沙箱容器运行时(Sandbox container runtime, 比如 KataContainers) 本身因为虚拟化和独立 Guest Kernel 所带来的额外的资源消耗
-
RuntimeClass scheduling] native scheduler support, ready to implement 在这个设计中,Kubernetes RuntimeClass 的信息会被 Kubernetes 直接转义成 Toleration/Taint 信息从而使用 Kubernetes 的默认调度器即可处理。这个设计实现后, Kubernetes 就有了根据应用的需求,自主选择使用KataContainers 还是 Docker 来运行应用的能力,值得期待。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。