Linkerd 是什么
Linkerd 是 kubernetes 的一个完全开源的服务网格实现。它通过为你提供运行时调试、可观测性、可靠性和安全性,使运行服务更加轻松(这就是对应的服务治理,微服务的难点并不是在开发这一块而是在服务治理这块),所以这些都不需要对你的代码进行任何更改,而使运行服务更轻松、更安全。
Linkerd 通过在每一个服务实力旁边安装一组超轻、透明的代理来工作(sidecar 容器)。这些代理会自动处理进出服务的所有流量。由于它们是透明的,这些代理充当高度仪表化的进程外网络堆栈,向控制平面发送遥测数据并从控制平面接受控制信号,也就是说我们将会在这个 Linkerd 里面有一个控制平面,而这个控制平面会控制我们的 sidecar 容器来实现对应的操作,这种设计允许 Linkerd 测量和操纵进出你的服务流量,而不会引入过多的延迟。为了尽可能小、轻和安全,Linkerd 的代理采用 Rust 编写。
2.1 功能概述:
-
自动 mTLS
:Linkerd 自动为网格应用程序之间的所有通信启用相互传输层安全性(TLS)
- 也就是说以前的 service A 和 service B 之间如果想要实现一个安全的网络传输则需要由 service 自己来实现,而现在我们的 Linkerd 服务网格的 sidecar 可以自动实现安全或者非安全的网络传输。
-
自动代理注入(sidecar)
:Linkerd 会自动将数据平面代理注入到基于 annotations 的 pod 中,也就是通过在对应的 Pod 中打注解的方式就会自动部署 sidecar 容器到该 Pod 中 -
容器网络接口插件
:Linkerd 能被配置去运行一个 CNI 插件,该插件自动重写每个 pod 的 iptables 规则。这样才可以去拦截对应的网络流量。 -
仪表板和 Grafana
:Linkerd 提供了一个 Web 仪表板,以及预配置的 Grafana 仪表板。 -
分布式追踪
:您可以在 Linkerd 中启用分布式跟踪支持。 -
故障注入
:Linkerd 提供了以编程方式将故障注入服务的机制。 -
高可用性
:Linkerd 控制平面可以在高可用性 (HA) 模式下运行。 -
HTTP、HTTP/2 和 gRPC 代理
:Linkerd 将自动为 HTTP、HTTP/2 和 gRPC 连接启用高级功能(包括指标、负载平衡、重试等)。 -
Ingress
:Linkerd 可以与您选择的 ingress controller 一起工作。 -
负载均衡
:Linkerd 会自动对 HTTP、HTTP/2 和 gRPC 连接上所有目标端点的请求进行负载平衡。 -
多集群通信
:Linkerd 可以透明且安全地连接运行在不同集群中的服务。 -
重试和超时
:Linkerd 可以执行特定于服务的重试和超时。 -
服务配置文件
:Linkerd 的服务配置文件支持每条路由指标以及重试和超时。 -
TCP 代理和协议检测
:Linkerd 能够代理所有 TCP 流量,包括 TLS 连接、WebSockets 和 HTTP 隧道。 -
遥测和监控
:Linkerd 会自动从所有通过它发送流量的服务收集指标。 -
流量拆分(金丝雀、蓝/绿部署)
:Linkerd 可以动态地将一部分流量发送到不同的服务。
2.2 架构
整体上来看 Linkerd 由一个控制平面和一个数据平面组成。
- 控制平面:是一组服务,提供对 Linkerd 整体的控制。
- 数据平面:由在每个服务实例旁边运行的透明微代理(micro-proxies)组成,作为 Pod 中的 Sidecar 容器运行,这些代理会自动处理进出服务的所有 TCP 流量,并与控制平面进行通信以进行配置。
此外 Linkerd 还提供了一个 CLT 工具,可用于控制平面和数据平面进行交互。
如上图:
Controle Plane:就是 Linkerd 的控制面,默认在部署的时候一般将其部署在 linkerd namespace,
从较高的层次上看,Linkerd
由一个控制平面(control plane) 和一个 数据平面(data plane) 组成。
控制平面是一组服务,提供对 Linkerd
整体的控制。
数据平面由在每个服务实例“旁边”
运行的透明微代理(micro-proxies)组成,作为 Pod
中的 sidecar
。这些代理会自动处理进出服务的所有 TCP
流量,并与控制平面进行通信以进行配置。
Linkerd
还提供了一个 CLI,可用于与控制平面
和数据平面
进行交互。
系列中文手册(https://hacker-linner.com)
CLI
Linkerd CLI
通常在集群外部运行(例如在您的本地机器上),用于与 Linkerd
交互。
控制平面(control plane)
Linkerd 控制平面
是一组在专用 Kubernetes
命名空间(默认为 linkerd
)中运行的服务。控制平面有几个组件,列举如下。
-
目标服务(destination)
数据平面代理
使用destination
服务来确定其行为的各个方面。它用于获取服务发现信息(即发送特定请求的位置和另一端预期的TLS
身份);获取有关允许哪些类型的请求的策略
信息;获取用于通知每条路由指标
、重试
和超时
的服务配置文件信息;和更多其它有用信息。 -
身份服务(identity)
identity
服务充当 TLS 证书颁发机构, 接受来自代理的 CSR 并返回签名证书。这些证书在代理初始化时颁发,用于代理到代理连接以实现mTLS
。 -
代理注入器(proxy injector)
proxy injector
是一个 Kubernetesadmission controller
,它在每次创建pod
时接收一个webhook
请求。此injector
检查特定于Linkerd
的annotation
(linkerd.io/inject: enabled
)的资源。当该annotation
存在时,injector
会改变pod
的规范, 并将proxy-init
和linkerd-proxy
容器以及相关的启动时间配置添加到pod
中。
数据平面(data plane)
Linkerd 数据平面
包含超轻型微代理
,这些微代理
部署为应用程序 Pod
内的 sidecar
容器。由于由 linkerd-init
(或者,由 Linkerd
的 CNI
插件)制定的 iptables
规则, 这些代理透明地拦截进出
每个 pod
的 TCP
连接。
-
代理(Linkerd2-proxy)
Linkerd2-proxy
是一个用 Rust 编写的超轻、透明的微代理
。Linkerd2-proxy
专为service mesh
用例而设计,并非设计为通用代理。代理的功能包括:-
HTTP
、HTTP/2
和任意TCP
协议的透明、零配置代理。 -
HTTP
和TCP
流量的自动Prometheus
指标导出。 -
透明、零配置的
WebSocket
代理。 -
自动、延迟感知、第
7
层负载平衡。 -
非
HTTP
流量的自动第4
层负载平衡。 -
自动
TLS
。 -
按需诊断
Tap API
。 -
代理支持通过
DNS
和目标 gRPC API 进行服务发现。
-
-
Linkerd init 容器
linkerd-init
容器作为 Kubernetes init 容器添加到每个网格pod
中,该容器在任何其他容器启动之前运行。它使用iptables
通过代理将所有TCP
流量,进出Pod
的所有流量。
3 安装
我们可以通过在本地安装一个 Linkerd 的 CLI 命令行工具,通过该 CLI 可以将 Linkerd 的控制平面安装到 Kubernetes 集群上。
所以首先需要在本地运行 kubectl 命令,确保可以访问一个可用的 Kubernetes 集群,如果没有集群,可以使用 KinD 在本地快速创建一个。
$kubectl version --short
Client Version: v1.22.0
Server Version: v1.22.0
Linux 可以使用下面的命令在本地安装 Linkerd 的 CLI 工具:
$ curl --proto '=https' --tlsv1.2 -sSfL https://run.linkerd.io/install | sh
同样直接前往 Linkerd Release 页面 https://github.com/linkerd/linkerd2/releases/ 下载安装即可。
如果是 mac 系统,可以使用 Homebrew 工具一键安装:
$ brew install linkerd
3.1 基于二进制安装
这里我采用的是源码安装的方式
$ wget https://github.com/linkerd/linkerd2/releases/download/stable-2.11.1/linkerd2-cli-stable-2.11.1-linux-amd64
$ cp linkerd2-cli-stable-2.11.1-linux-amd64 /usr/local/bin/linkerd
$ chmod +x /usr/local/bin/linkerd
$ linkerd version
Client version: stable-2.11.1
Server version: unavailable # 可以看到 server 当前还没准备好,只需下面步骤即可
Kubernetes 集群可以通过多种不同的方式进行配置,在安装 Linkerd 控制平面之前,我们需要检查并验证所有配置是否正确,要检查集群是否已准备好安装 Linkerd,可以执行下面的命令:
$ linkerd check --pre
Linkerd core checks
===================
kubernetes-api
--------------
√ can initialize the client
√ can query the Kubernetes API
kubernetes-version
------------------
√ is running the minimum Kubernetes API version
√ is running the minimum kubectl version
pre-kubernetes-setup
--------------------
√ control plane namespace does not already exist
√ can create non-namespaced resources
√ can create ServiceAccounts
√ can create Services
√ can create Deployments
√ can create CronJobs
√ can create ConfigMaps
√ can create Secrets
√ can read Secrets
√ can read extension-apiserver-authentication configmap
√ no clock skew detected
linkerd-version
---------------
√ can determine the latest version
‼ cli is up-to-date
is running version 2.11.1 but the latest stable version is 2.12.4
see https://linkerd.io/2.11/checks/#l5d-version-cli for hints
Status check results are √
如果一切检查都 OK 则可以开始安装 Linkerd 的控制平面了,直接执行下面的命令即可一键安装:
$ linkerd install | kubectl apply -f -
安装之后会在 K8S 中创建以下资源
$ kubectl get ns | grep linkerd
linkerd Active 29s
$ kubectl get pod -n linkerd
NAME READY STATUS RESTARTS AGE
linkerd-destination-64d656f569-2fxdn 4/4 Running 0 2m19s
linkerd-identity-6b78ff444f-wmmtl 2/2 Running 0 2m19s
linkerd-proxy-injector-7dc88dcfc7-zfnzq 2/2 Running 0 2m19s
但是现在这样是单副本的,如果要在生产环境中使用的话可以使用下面命令安装 ha 模式,
$ linkerd install --ha | kubectl apply -f
安装完成后通过运行以下命令等待控制平面准备就绪,并可以验证安装结果是否正常:
[15:55:52 root@master ~]#linkerd check
Linkerd core checks
===================
kubernetes-api
--------------
√ can initialize the client
√ can query the Kubernetes API
kubernetes-version
------------------
√ is running the minimum Kubernetes API version
√ is running the minimum kubectl version
linkerd-existence
-----------------
√ 'linkerd-config' config map exists
√ heartbeat ServiceAccount exist
√ control plane replica sets are ready
√ no unschedulable pods
√ control plane pods are ready
√ cluster networks contains all node podCIDRs
linkerd-config
--------------
√ control plane Namespace exists
√ control plane ClusterRoles exist
√ control plane ClusterRoleBindings exist
√ control plane ServiceAccounts exist
√ control plane CustomResourceDefinitions exist
√ control plane MutatingWebhookConfigurations exist
√ control plane ValidatingWebhookConfigurations exist
linkerd-identity
----------------
√ certificate config is valid
√ trust anchors are using supported crypto algorithm
√ trust anchors are within their validity period
√ trust anchors are valid for at least 60 days
√ issuer cert is using supported crypto algorithm
√ issuer cert is within its validity period
√ issuer cert is valid for at least 60 days
√ issuer cert is issued by the trust anchor
linkerd-webhooks-and-apisvc-tls
-------------------------------
√ proxy-injector webhook has valid cert
√ proxy-injector cert is valid for at least 60 days
√ sp-validator webhook has valid cert
√ sp-validator cert is valid for at least 60 days
√ policy-validator webhook has valid cert
√ policy-validator cert is valid for at least 60 days
linkerd-version
---------------
√ can determine the latest version
‼ cli is up-to-date
is running version 2.11.1 but the latest stable version is 2.12.4
see https://linkerd.io/2.11/checks/#l5d-version-cli for hints
control-plane-version
---------------------
√ can retrieve the control plane version
‼ control plane is up-to-date
is running version 2.11.1 but the latest stable version is 2.12.4
see https://linkerd.io/2.11/checks/#l5d-version-control for hints
√ control plane and cli versions match
linkerd-control-plane-proxy
---------------------------
√ control plane proxies are healthy
‼ control plane proxies are up-to-date
some proxies are not running the current version:
* linkerd-destination-64d656f569-2fxdn (stable-2.11.1)
* linkerd-identity-6b78ff444f-wmmtl (stable-2.11.1)
* linkerd-proxy-injector-7dc88dcfc7-zfnzq (stable-2.11.1)
see https://linkerd.io/2.11/checks/#l5d-cp-proxy-version for hints
√ control plane proxies and cli versions match
Status check results are √
# 可以看到当前检查状态 OK
3.2 基于 helm 安装
除了使用 CLI 工具的方式安装控制平面之外,我们也可以通过 Helm Chart 的方式来安装,如下所示:
# 添加 helm 源
$ helm repo add linkerd https://helm.linkerd.io/stable
# Mac 下获取身份有效期:
$ exp=$(date -v+8760H +"%Y-%m-%dT%H:%M:%SZ")
# Linux 下获取身份有效期:
$exp=$(date -d '+8760 hour' +"%Y-%m-%dT%H:%M:%SZ")
# 配置 identity 身份服务有效期
$ helm install linkerd2 \
--set-file identityTrustAnchorsPEM=ca.crt \
--set-file identity.issuer.tls.crtPEM=issuer.crt \
--set-file identity.issuer.tls.keyPEM=issuer.key \
--set identity.issuer.crtExpiry=$exp \
linkerd/linkerd2
此外该 chart 包含一个 values-ha.yaml
文件, 它覆盖了一些默认值,以便在高可用性场景下进行设置, 类似于 linkerd install
中的 --ha
选项。我们可以通过获取 chart 文件来获得 values-ha.yaml
:
$ helm fetch --untar linkerd/linkerd2
然后使用 -f flag
提供覆盖文件,例如:
## see above on how to set $exp
helm install linkerd2 \
--set-file identityTrustAnchorsPEM=ca.crt \
--set-file identity.issuer.tls.crtPEM=issuer.crt \
--set-file identity.issuer.tls.keyPEM=issuer.key \
--set identity.issuer.crtExpiry=$exp \
-f linkerd2/values-ha.yaml \
linkerd/linkerd2
采用哪种方式进行安装均可,到这里我们现在就完成了 Linkerd 的安装,重新执行 linkerd version
命令就可以看到 Server 端版本信息了:
$ linkerd version
Client version: stable-2.11.1
Server version: stable-2.11.1
4 示例
下面这个示例就是用来模拟微服务之间多个程序的调用
接下来我们安装一个简单的示例应用 Emojivoto
,该应用是一个简单的独立 Kubernetes 应用程序,它里面有两三个单独服务,并且混合使用 gRPC 和 HTTP 调用,允许用户对他们最喜欢的表情符号进行投票。
通过运行以下命令可以将 Emojivoto
安装到 emojivoto
命名空间中:
$ curl -fsL https://run.linkerd.io/emojivoto.yml | kubectl apply -f -
namespace/emojivoto created
serviceaccount/emoji created
serviceaccount/voting created
serviceaccount/web created
service/emoji-svc created
service/voting-svc created
service/web-svc created
deployment.apps/emoji created
deployment.apps/vote-bot created
deployment.apps/voting created
deployment.apps/web created
该应用下可以看到一共包含 4 个 Pod 服务,并且每个 pod 中只有一个容器。
$ kubectl get pod -n emojivoto
NAME READY STATUS RESTARTS AGE
emoji-66ccdb4d86-qnxhd 1/1 Running 0 2m2s
vote-bot-69754c864f-692fr 1/1 Running 0 2m2s
voting-f999bd4d7-2djfr 1/1 Running 0 2m2s
web-79469b946f-9k6zz 1/1 Running 0 2m2s
修改 svc 进行访问
$ kubectl get svc -n emojivoto
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
emoji-svc ClusterIP 10.96.138.16 <none> 8080/TCP,8801/TCP 2m17s
voting-svc ClusterIP 10.104.138.94 <none> 8080/TCP,8801/TCP 2m17s
web-svc ClusterIP 10.104.228.90 <none> 80/TCP 2m17s
# 改为 nodeport
$ kubectl edit svc -n emojivoto web-svc
...
type: NodePort
# 当前端口 1183
$ kubectl get svc -n emojivoto|grep web
web-svc NodePort 10.104.228.90 <none> 80:1183/TCP 18m
点击蓝色按钮,可以看到已经在投票了,这后面其实就是有 vote-bot 的 pod 在自动的投票
我们可以选择页面中喜欢的表情进行投票,但是选择某些表情后会出现一些错误,比如当我们点击甜甜圈表情符号的时候会得到一个 404 页面。
不过不用担心,这是应用中故意留下的错误,为的是后面使用 Linkerd 来识别该问题。
接下来我们可以将上面的示例应用加入到 Service Mesh 中来,这样就让 vote-bot 投票的请求流向服务网格 linkerd ,由 linkerd 来接管这些请求,并且后续在点击这个甜甜圈即使 404 了也由 linkerd 来进行识别
向其添加 Linkerd 的数据平面代理,直接运行下面的命令即可将 Emojivoto
应用网格化:
# 将 annotation:linkerd.io/inject: enabled 添加到 emojivoto NS 中的 deploy 里
# 在通过管道执行 kubectl apply -f - 将其应用
$ kubectl get -n emojivoto deploy -o yaml \
| linkerd inject - \
| kubectl apply -f -
deployment "emoji" injected
deployment "vote-bot" injected
deployment "voting" injected
deployment "web" injected
deployment.apps/emoji configured
deployment.apps/vote-bot configured
deployment.apps/voting configured
deployment.apps/web configured
# 可以看到当前每个 Pod 中的容器已经变为了两个
$ kubectl get pod -n emojivoto
NAME READY STATUS RESTARTS AGE
emoji-696d9d8f95-sxrqj 2/2 Running 0 54s
vote-bot-6d7677bb68-nvspm 2/2 Running 0 54s
voting-ff4c54b8d-dv5mv 2/2 Running 0 54s
web-5f86686c4d-t2hml 2/2 Running 0 54s
上面的命令首先获取在 emojivoto
命名空间中运行的所有 Deployments,然后通过 linkerd inject
运行它们的清单,然后将其重新应用到集群。
注意 linkerd inject
命令只是在 Pod 规范中添加一个 linkerd.io/inject: enabled
的注解,并不会直接注入一个 Sidecar 容器,该注解即可指示 Linkerd 在创建 Pod 时将代理注入到其中,所以执行上面的命令后应用 Pod 中会新增一个 sidecar 的代理容器。
# 命令解释:
$ linkerd inject
Error: please specify a kubernetes resource file
Usage:
linkerd inject [flags] CONFIG-FILE
Examples:
#在默认命名空间中注入所有部署
kubectl get deploy -o yaml | linkerd inject - | kubectl apply -f -
#从远程URL注入文件
linkerd inject http://url.to/yml | kubectl apply -f -
#注入文件夹及其子文件夹中的所有资源。
linkerd inject <folder> | kubectl apply -f -
可以看到每个 Pod 现在都有 2 个容器,相较于之前多了一个 Linkerd 的 sidecar 代理容器。
当应用更新完成后,我们就成功将应用引入到 Linkerd 的网格服务中来了,新增的代理容器组成了数据平面,我们也可以通过下面的命令检查数据平面状态:
$ linkerd -n emojivoto check --proxy
Linkerd core checks
===================
kubernetes-api
--------------
√ can initialize the client
√ can query the Kubernetes API
kubernetes-version
------------------
√ is running the minimum Kubernetes API version
√ is running the minimum kubectl version
linkerd-existence
-----------------
√ 'linkerd-config' config map exists
√ heartbeat ServiceAccount exist
√ control plane replica sets are ready
√ no unschedulable pods
√ control plane pods are ready
√ cluster networks contains all node podCIDRs
linkerd-config
--------------
√ control plane Namespace exists
√ control plane ClusterRoles exist
√ control plane ClusterRoleBindings exist
√ control plane ServiceAccounts exist
√ control plane CustomResourceDefinitions exist
√ control plane MutatingWebhookConfigurations exist
√ control plane ValidatingWebhookConfigurations exist
linkerd-identity
----------------
√ certificate config is valid
√ trust anchors are using supported crypto algorithm
√ trust anchors are within their validity period
√ trust anchors are valid for at least 60 days
√ issuer cert is using supported crypto algorithm
√ issuer cert is within its validity period
√ issuer cert is valid for at least 60 days
√ issuer cert is issued by the trust anchor
linkerd-webhooks-and-apisvc-tls
-------------------------------
√ proxy-injector webhook has valid cert
√ proxy-injector cert is valid for at least 60 days
√ sp-validator webhook has valid cert
√ sp-validator cert is valid for at least 60 days
√ policy-validator webhook has valid cert
√ policy-validator cert is valid for at least 60 days
linkerd-identity-data-plane
---------------------------
√ data plane proxies certificate match CA
linkerd-version
---------------
√ can determine the latest version
‼ cli is up-to-date
is running version 2.11.1 but the latest stable version is 2.11.4
see https://linkerd.io/2.11/checks/#l5d-version-cli for hints
linkerd-control-plane-proxy
---------------------------
√ control plane proxies are healthy
‼ control plane proxies are up-to-date
some proxies are not running the current version:
* linkerd-destination-79d6fc496f-dcgfx (stable-2.11.1)
* linkerd-identity-6b78ff444f-jwp47 (stable-2.11.1)
* linkerd-proxy-injector-86f7f649dc-v576m (stable-2.11.1)
see https://linkerd.io/2.11/checks/#l5d-cp-proxy-version for hints
√ control plane proxies and cli versions match
linkerd-data-plane
------------------
√ data plane namespace exists
√ data plane proxies are ready
‼ data plane is up-to-date
some proxies are not running the current version:
* emoji-696d9d8f95-8wrmg (stable-2.11.1)
* vote-bot-6d7677bb68-c98kb (stable-2.11.1)
* voting-ff4c54b8d-rdtmk (stable-2.11.1)
* web-5f86686c4d-qh5bz (stable-2.11.1)
see https://linkerd.io/2.11/checks/#l5d-data-plane-version for hints
√ data plane and cli versions match
√ data plane pod labels are configured correctly
√ data plane service labels are configured correctly
√ data plane service annotations are configured correctly
√ opaque ports are properly annotated
Status check results are √
当然,我们还是可以通过 http://10.0.0.131:1183
nodeport 访问刚才的应用,当然在使用上和之前没什么区别
5 安装 linkerd-viz 可视化插件
我们可以通过 Linkerd 去查看应用实际上做了哪些事情,但是我们需要去单独安装一个插件,由于 Linkerd 的核心控制平面非常轻量级, 所以 Linkerd 附带了一些插件,这些插件为 Linkerd 添加了一些非关键但通常有用的功能,包括各种仪表板,比如我们可以安装一个 viz
插件,Linkerd-Viz
插件包含 Linkerd 的可观察性和可视化组件。安装命令如下所示:
$ linkerd viz install > install.yaml
$ vim install.yaml
# 在 web container 中添加
- args:
...
- -enforced-host=^linkerd\.k8s\.local/$
上面的命令会创建一个名为 linkerd-viz
的命名空间,会在该命名空间中安装监控相关的应用,比如 Prometheus、Grafana 等。
$ kubectl apply -f install.yaml
$ kubectl get ns linkerd-viz
NAME STATUS AGE
linkerd-viz Active 86s
$ kubectl get pod -n linkerd-viz
NAME READY STATUS RESTARTS AGE
grafana-8d54d5f6d-zlv56 2/2 Running 0 2m2s
metrics-api-6c59967bf4-4bmvb 2/2 Running 0 2m2s
prometheus-7bbc4d8c5b-4brdl 2/2 Running 0 2m2s
tap-76844879d8-2wlwp 2/2 Running 0 2m2s
tap-injector-7c7b6bddfd-vx9mg 2/2 Running 0 2m1s
web-db97ff489-ntwpx 2/2 Running 0 2m
安装完成后,我们可以使用下面的命令打开一个 dashboard 页面:
$ linkerd viz dashboard &
当 viz
插件部署完成后,执行上面的命令后会自动在浏览器中打开一个 Linkerd 的可观察性的 Dashboard。当然也可以基于 ingress 来实现对 dashboard 的访问
5.1 安装 ingress
安装 ingress
root@master:~/ingress# wget https://github.com/kubernetes/ingress-nginx/archive/refs/tags/controller-v1.6.2.tar.gz
root@master:~/ingress# tar xf controller-v1.6.2.tar.gz
root@master:~/ingress# ls
controller-v1.6.2.tar.gz ingress-nginx-controller-v1.6.2
root@master:~/ingress# cp ingress-nginx-controller-v1.6.2/deploy/static/provider/baremetal/deploy.yaml .
root@master:~/ingress# kubectl apply -f deploy.yaml
root@master:~/ingress# kubectl get pod -n ingress-nginx
NAME READY STATUS RESTARTS AGE
ingress-nginx-admission-create--1-67cb4 0/1 Completed 0 4m47s
ingress-nginx-admission-patch--1-bgzs9 0/1 Completed 1 4m47s
ingress-nginx-controller-6668b8dd46-4r78b 1/1 Running 0 4m47s
root@master:~/ingress# kubectl get svc -n ingress-nginx
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
ingress-nginx-controller NodePort 10.96.159.129 <none> 80:1183/TCP,443:16247/TCP 4m50s
ingress-nginx-controller-admission ClusterIP 10.104.96.239 <none> 443/TCP 4m50s
此外我们也可以通过 Ingress 来暴露 viz 服务,创建如下所示的资源对象:
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: web-ingress
namespace: linkerd-viz
annotations:
nginx.ingress.kubernetes.io/upstream-vhost: $service_name.$namespace.svc.cluster.local:8084
nginx.ingress.kubernetes.io/configuration-snippet: |
proxy_set_header Origin "";
proxy_hide_header l5d-remote-ip;
proxy_hide_header l5d-server-id;
spec:
ingressClassName: nginx
rules:
- host: linkerd.k8s.local
http:
paths:
- path: /
pathType: Prefix
backend:
service:
name: web
port:
number: 8084
创建 ingress
$ kubectl apply -f ingress.yaml
修改 windows hosts 文件添加下面代码
C:\Windows\System32\drivers\etc
10.0.0.130 linkerd.k8s.local
查看 ingress svc 的 port
root@master:~/ingress# kubectl get svc -n ingress-nginx
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
ingress-nginx-controller NodePort 10.96.159.129 <none> 80:1183/TCP,443:16247/TCP 22m
5.2 可视化验证
应用后就可以通过 linkerd.k8s.local:1183
访问 viz 了。
选择 NS 到 emojivoto NS 下可以看到我们刚才添加进来的这些微服务组件的对应拓扑图