本文分析的istio代码版本为0.8.0,commit为0cd8d67,commit时间为2018年6月18日。
本文为Service Mesh深度学习系列
之一:
首先我们回顾一下pilot总体架构,上面是官方关于pilot的架构图,因为是old_pilot_repo目录下,可能与最新架构有出入,仅供参考。所谓的pilot包含两个组件:pilot-agent和pilot-discovery。图里的agent对应pilot-agent二进制,proxy对应Envoy二进制,它们两个在同一个容器中,discovery service对应pilot-discovery二进制,在另外一个跟应用分开部署的单独的deployment中。
service
、endpoint
、pod
、node
等资源信息,监听istio控制平面配置信息(Kubernetes CRD), 翻译为Envoy可以直接理解的配置格式。对于模块的命名方法,本文采用模块对应源码main.go所在包名称命名法。其他istio分析文章有其他命名方法。比如pilot-agent也被称为istio pilot,因为它在Kubernetes上的部署形式为一个叫istio-pilot的deployment。
pilot-discovery是单独二进制,被封装在Dockerfile.pilot
里,在istio-docker.mk
里被build成$(HUB)/pilot:$(TAG)
镜像。
根据istio-pilot.yaml.tmpl
,在Kubernetes环境下,pilot镜像并非sidecar的一部分,也不是daemonset在每个机器上都有,而是单独部署成一个replica=1的deployment。
pilot-discovery扮演服务注册中心、istio控制平面到Envoy之间的桥梁作用。pilot-discovery的主要功能包括:
service
、endpoint
、pod
、node
等资源信息。监控istio控制面信息变化,在Kubernetes环境下,会监控包括RouteRule
、VirtualService
、Gateway
、EgressRule
、ServiceEntry
等以Kubernetes CRD形式存在的istio控制面配置信息。pilot-discovery的初始化主要在pilot-discovery的init
方法和在discovery
命令处理流程中调用的bootstrap.NewServer
完成:
init
方法为pilot-discovery的discovery
命令配置一系列flag及其默认值。flag值被保存在bootstrap包的PilotArgs
对象中bootstrap.NewServer
利用PilotArgs
构建bootstrap包下的server
对象bootstrap.NewServer
工作流程如下。
根据服务注册中心配置是否包含Kubernetes(一个istio service mesh可以连接多个服务注册中心)创建kubeClient
,保存在Server.kubeClient
成员中。kubeClient
有两种创建方式:
discovery
命令的kubeconfig
flag中提供文件路径,默认为空。istio支持使用一个istio control plane来管理跨多个Kubernetes集群上的service mesh。这个叫“multicluster”功能的具体描述参考官方文档,当前此特性成熟度仅是alpha水平。Istio的控制平面组件(如pilot-discovery)运行所在的Kubernetes集群叫本地集群,通过这个istio控制面板连接的其他Kubernetes集群叫远程集群(remote cluster)。remote cluster信息被保存在Server.clusterStore
成员中,里面包含一个map,将Metadata
映射成RemoteCluster
对象。clusterStore
的具体创建流程如下:
检测上一步骤是否创建好kubeClient
。否,则直接报错返回
检测服务注册中心中是否包含Mock类型,是的话直接返回
如果pilot-discovery discovery
命令的flag clusterRegistriesConfigMap
不为空,则从本地Kubernetes集群中读取一个包含远程Kubernetes集群访问信息的configmap(configmap所在的默认命名空间为“istio-system”
,名字通过discovery命令flag clusterRegistriesConfigMap
设定)。
这个configmap包含Kubernetes远程集群的访问信息,其形式为键值对。其key为cluster唯一标识符,value为一个使用yaml或json编码的Cluster
对象。 Cluster
对象的Annotations指定一个本地Kubernetes集群中的secret(secret所在命名空间对应的annotation key为config.istio.io/accessConfigSecret
,默认为istio-system
,secret名称对应annotation key为config.istio.io/accessConfigSecretNamespace
)。 到本地Kubernetes集群中读取secret内容,根据这个内容构建保存在clusterStore
中的RemoteCluster对象,对应一个远程Kubernetes集群。
mesh配置由MeshConfig
结构体定义,包含MixerCheckServer
、MixerReportServer
、ProxyListenPort
、RdsRefreshDelay
、MixerAddress
等一些列配置。这里读取默认mesh配置文件”/etc/istio/config/mesh”(用户可以通过discovery命令的flag meshConfig
提供自定义值)。如果配置文件读取失败,也可以从Kubernetes集群中读取configmap获得默认的配置。作为测试,这里也读取flag来覆盖mesh配置的MixerCheckServer
和MixerReportServer
(但是这两个flag在pilot-discovery的init方法中并没有配置)
如果mesh配置中的控制平面认证策略为mutual TLS(默认为none),则配置mixerSan
对istio做出的各种配置,比如route rule、virtualservice等,需要保存在配置存储中心(config store)内,istio当前支持2种形式的config store:
i) 文件存储
通过pilot-discovery discovery
命令的configDir
flag来设置配置文件的文件系统路径,默认为“configDir”
。后续使用pilot/pkg/config/memory包下的controller和pilot/pkg/config/monitor持续监控配置文件的变化。
ii) Kubernetes CRD
以Kubernetes apiserver作为config store的情况下,config store的初始化流程如下:
读取pilot-discovery discovery
命令的kubeconfig
flag配置的kubeconfig配置文件,flag默认为空。
注册Kubernetes CRD资源。注册的资源类型定义在bootstrap包下的全局变量ConfigDescriptor
变量里,包括:RouteRule
、 VirtualService
、 Gateway
、 EgressRule
、 ServiceEntry
、 DestinationPolicy
、 DestinationRule
、 HTTPAPISpec
、 HTTPAPISpecBinding
、 QuotaSpec
、 QuotaSpecBinding
、 AuthenticationPolicy
, AuthenticationMeshPolicy
、 ServiceRole
、 ServiceRoleBinding
、 RbacConfig
。其中RouteRule
、 EgressRule
、 DestinationPolicy
、 HTTPAPISpec
、 HTTPAPISpecBinding
、 QuotaSpec
、 QuotaSpecBinding
、 ServiceRole
、 ServiceRoleBinding
、 RbacConfig
对应istio v1alpha2版本api,VirtualService
、Gateway
、ServiceEntry
、DestinationRule
对应istio v1alpha3版本api
以文件作为config store显然不灵活,所以我们可以说istio的流量管理策略等控制面信息存储依赖Kubernetes的apiserver。那么当使用cloud foundry等其他非Kubernetes平台作为服务注册中心的时候,istio就需要实现一个“假的”Kubernetes apiserver,不过目前这个工作并没完成,详见社区的一些相关讨论。
CRD资源注册完成之后将创建config controller,搭建对CRD资源Add、Update、Delete事件的处理框架。对该框架的处理会在本文”pilot-discovery主要功能分析之二:istio控制面信息监控与处理”中描述。
istio需要从服务注册中心(service registry)获取服务注册的情况。代表pilot-discovery的server对象包含一个ServiceController
对象,一个ServiceController
对象包含一个或多个service controller(是的,这两个名字只有大小写区别)。每个service controller负责连接服务注册中心并同步相关的服务注册信息。
当前istio支持的服务注册中心类型包括ConfigRegistry, MockRegistry, Kubernetes, Consul, Eureka和CloudFoundry。不过仅对Kubernetes服务注册中心的支持成熟度达到stable水平,其他服务注册中心的集成工作成熟度还都处于alpha水平。
ServiceController
对象的结构体定义在aggregate包下,从包名可以看出一个ServiceController
对象是对多个service controller的聚合。所谓聚合,也就是当对ServiceController
操作时,会影响到其聚合的所有service controller。比如,当我们向ServiceController
注册一个服务注册信息变更事件处理handler时,实际上会将handler注册到所有的service controller上。
具体service controller对服务注册信息的变更处理流程框架将在本文“pilot-discovery主要功能分析之三:服务注册信息监控与处理”中描述。
istio service mesh中的envoy sidecar通过连接pilot-discovery的discovery服务获取服务注册情况、流量控制策略等控制面的控制信息。discovery服务的初始化主要包括如下几步:
i) 创建对外提供REST协议的discovery服务的discovery service对象
istio代码在2018年6月的一次commit (e99cad5)中删除了大量与Envoy v1版本的data plane api相关代码。当前版本的istio中,作为sidecar的Envoy已经不再使用REST协议获取控制面信息。与v1版本Envoy data plane api相关的cds
、rds
、lds
相关代码都已被删除,仅残留sds
部分代码。因此作为sds
的残留功能,用户依然可以访问"/v1/registration"
URL访问与服务endpoint
相关的信息,但Envoy并不会访问这个URL。discovery service默认通过8080端口对外提供服务,可以通过pilot-discovery的discovery
命令的httpAddr
flag自定义端口
ii) 创建对外提供gRPC协议discovery服务的Envoy xds server
所谓的xds
代表Envoy v2 data plane api中的eds
、 cds
、 rds
、 lds
、 hds
、 ads
、 kds
等一系列api。Envoy xds server默认通过15010和15012端口对外提供服务,可以通过pilot-discovery的discovery
命令的grpcAddr
、secureGrpcAddr
flag自定义端口。
与Envoy xds server相关代码分析我们将在系列文章的下一篇分析。
pilot-discovery默认打开9093端口(端口号可以通过pilot-discovery discovery命令的monitoringAddr
flag自定义),对外提供HTTP协议的自身运行状态检查监控功能。当前提供/metrics
和/version
两个运行状况和基本信息查询URL。
当使用一个istio控制面构建跨多个Kubernetes集群的service mesh时,远程Kubernetes集群的访问信息保存在secret中,此处使用list/watch监控secret资源的变化。
关于上面第五点说的两种config store,代码里实际上还有第三种,通过
PilotArgs.Config.Controller
配置。但pilot-discovery的init
函数里没找到对应flag。
以上一系列初始化不候通过bootstrap包的NewServer
函数带起,在此过程中pilot-discovery已经启动一部分协程,开始一些控制逻辑的循环执行。比如在上述第九步中的多Kubernetes集群访问信息(secret资源)的监控,在initMonitor
方法中,实际上已经启动协程,利用client-go库开始对secret信息的监控(list/watch)与处理。
而pilot-discovery的其他控制逻辑则要在bootstrap包下的Server.Start
方法启动,而Start
方法的逻辑是顺序执行之前初始化过程中在server
对象上注册的一系列启动函数(startFunc
)。 本文接下来分析pilot-discovery的其他主要控制逻辑。 TODO 整理有哪些startfunc
istio的用户可以通过istioctl创建route rule
、virtualservice
等实现对服务网络中的流量管理等配置建。而这些配置需要保存在config store中。在当前的istio实现中,config store以Kubernetes CRD的形式将virtualservice
等存储在Kubernetes apiserver之后的etcd中。
在前面pilot-discovery初始化第五步骤中pilot-discovery已经完成了RouteRule
、VirtualService
等CRD资源在Kubernetes apiserver上的注册,接下来pilot-discovery还需要在initConfigController方法中通过config controller搭建CRD资源对象处理的框架。config controller包含以下3个部分:
1. client
client是一个rest client集合,用于连接Kubernetes apiserver,实现对istio CRD资源的list/watch。具体而言,为每个CRD资源的group version (如config.istio.io/v1alpha2
、networking.istio.io/v1alpha3
)创建一个rest client。该rest client里包含了连接Kubernetes apiserver需要用到的apimachinary
、client-go
等库里的对象,如GroupVersion
、RESTClient
等。
2. queue
用于缓存istio CRD资源对象(如virtual-service
、route-rule
等)的Add、Update、Delete事件的队列,等待后续由config controller处理。详见本文后续描述
3. kinds
为每种CRD资源(如virtual-service
、route-rule
等)创建一个用于list/watch的SharedIndexInformer(Kubernetes client-go库里的概念)。
pilot-discovery在完成config controller的创建之后,向server对象注册startFunc
,从而在后续server start的时候启动config controller的主循环逻辑(config controller的Run方法),完成与istio控制面信息相关的监控与处理。config controller主循环主要包括两方面:
client-go
库里的SharedIndexInformer实现对CRD资源的list/watch,为每种CRD资源的Add、Update、Delete事件创建处理统一的流程框架。 这个流程将Add、Update、Delete事件涉及到的CRD资源对象封装为一个Task对象,并将之push到config controller的queue成员里。Task对象除了包含CRD资源对象之外,还包含事件类型(如Add、Update、Delete等),以及处理函数ChainHandler。ChainHandler支持多个处理函数的串联。这个流程执行结束之后,只是搭建了CRD资源对象变更事件的处理框架,真正CRD变更事件的处理逻辑要等到下面在discovery service中将相应的handler注册到ChainHandler当中。
istio需要从服务注册中心(service registry)获取服务注册的情况。当前版本中istio可以对接的服务注册中心类型包括Kubernetes、Consul等。本小节以Kubernetes服务注册中心为例,分析istio对服务注册信息的变更处理流程框架。
pilot-discovery初始化第六步中通过构建service controller实现对Kubernetes服务注册信息的监控。pilot-discovery在完成service controller的创建之后,会向server对象(server对象代表pilot-discovery组件)注册startFunc
,从而在后续server start的时候启动service controller的主循环逻辑(service controller的Run方法),完成服务注册信息的监控与处理。service controller主循环主要包括两方面:
1. 利用client-go
库里的SharedIndexInformer
监控Kubernetes中的service
,endpoints
, node
和pod
资源(默认resync间隔为60秒,可以通过pilot-discovery discovery命令的resync
flag配置)。与config controller对于CRD资源的处理方式类似,所有service
,endpoints
等资源的Add,Update和Delete事件都采用统一处理框架。
i) 将事件封装为Task对象,包含:
a) 事件涉及的资源对象
b) 事件类型:Add、Update和Delete
c) Handler:ChainHandler。ChainHandler支持多个处理函数的串联
ii) 将Task对象push到service controller的queue成员里。
2. 启动协程逐一处理服务注册信息变更事件(queue.run),处理方法是调用每个从queue中取出的Task对象上的ChainHandler
这个流程执行结束之后,只是搭建了服务注册信息变更事件的处理框架,真正服务注册变更事件的处理逻辑要等到下面在discovery service中将相应的handler注册到ChainHandler当中。
pilot-discovery创建Envoy xds server对外提供gRPC协议discovery服务。所谓的xds
代表Envoy v2 data plane api中的eds
、 cds
、 rds
、 lds
、 hds
、 ads
、 kds
等api。与Envoy xds server相关代码分析我们将在系列文章的下一篇分析。
丁轶群博士
谐云科技CTO
2004年作为高级技术顾问加入美国道富银行(浙江)技术中心,负责分布式大型金融系统的设计与研发。2011年开始领导浙江大学开源云计算平台的研发工作,是浙江大学SEL实验室负责人,2013年获得浙江省第一批青年科学家称号,CNCF会员,多次受邀在Cloud Foundry, Docker大会上发表演讲,《Docker:容器与容器云》主要作者之一。
手机扫一扫
移动阅读更方便
你可能感兴趣的文章