k8s入坑之路(4)kubenetes安装
阅读原文时间:2022年06月14日阅读:1

三种安装方法:

1.kubeadm

2.kubespray

3.二进制安装

kubespray安装kubernetes集群

优点:

1.kuberspray对比kubeadm更加简洁内部集成了kubeadm与ansible

缺点:

1.全程自动化排错成本高

2.主节点也要装了工作节点,如不需要使用可在主节点打污点标签

# 一、使用Kubespray部署Kubernetes生产集群

1. 服务器说明

1.1. 节点要求

节点数 >=3台
CPU >=2
Memory >=2G
安全组:关闭(允许节点之间任意端口访问,以及ipip隧道协议通讯)

1.2. 演示环境说明

我们这里使用的是三台centos 7.5的虚拟机,具体信息如下表:

系统类型 IP地址 节点角色 CPU Memory Hostname
centos-7.5 10.155.19.223 master \>=2 \>=2G node-1
centos-7.5 10.155.19.64 master \>=2 \>=2G node-2
centos-7.5 10.155.19.147 worker \>=2 \>=2G node-3

2. 系统设置(所有节点)

注意:所有操作使用root用户执行

2.1 主机名

主机名必须合法,并且每个节点都不一样(建议命名规范:数字+字母+中划线组合,不要包含其他特殊字符)。
```bash

查看主机名

$ hostname

修改主机名

$ hostnamectl set-hostname
```

2.2 关闭防火墙、selinux、swap,重置iptables

```bash

关闭selinux

$ setenforce 0
$ sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config

关闭防火墙

$ systemctl stop firewalld && systemctl disable firewalld

设置iptables规则

$ iptables -F && iptables -X && iptables -F -t nat && iptables -X -t nat && iptables -P FORWARD ACCEPT

关闭swap

$ swapoff -a && free –h

关闭dnsmasq(否则可能导致容器无法解析域名)

$ service dnsmasq stop && systemctl disable dnsmasq
```

2.3 k8s参数设置

```bash

制作配置文件

$ cat > /etc/sysctl.d/kubernetes.conf <<EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_nonlocal_bind = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
vm.overcommit_memory = 0
EOF

生效文件

$ sysctl -p /etc/sysctl.d/kubernetes.conf
```

2.4 移除docker相关软件包(可选)

```bash
$ yum remove -y docker*
$ rm -f /etc/docker/daemon.json
```

3. 使用kubespray部署集群

这部分只需要在一个 **操作** 节点执行,可以是集群中的一个节点,也可以是集群之外的节点。甚至可以是你自己的笔记本电脑。我们这里使用更普遍的集群中的任意一个linux节点。

3.1 配置免密

使 **操作** 节点可以免密登录到所有节点
```bash

1. 生成keygen(执行ssh-keygen,一路回车下去)

$ ssh-keygen

2. 查看并复制生成的pubkey

$ cat /root/.ssh/id_rsa.pub

3. 分别登陆到每个节点上,将pubkey写入/root/.ssh/authorized_keys

$ mkdir -p /root/.ssh
$ echo "<上一步骤复制的pubkey>" >> /root/.ssh/authorized_keys
```

3.2 依赖软件下载、安装

```bash

安装基础软件

$ yum install -y epel-release python36 python36-pip git

下载kubespray源码

$ wget https://github.com/kubernetes-sigs/kubespray/archive/v2.15.0.tar.gz

解压缩

$ tar -xvf v2.15.0.tar.gz && cd kubespray-2.15.0

安装requirements

$ cat requirements.txt
$ pip3.6 install -r requirements.txt

如果install遇到问题可以先尝试升级pip

$ pip3.6 install --upgrade pip

```

3.3 生成配置

项目中有一个目录是集群的基础配置,示例配置在目录inventory/sample中,我们复制一份出来作为自己集群的配置
```bash

copy一份demo配置,准备自定义

$ cp -rpf inventory/sample inventory/mycluster
```
由于kubespray给我们准备了py脚本,可以直接根据环境变量自动生成配置文件,所以我们现在只需要设定好环境变量就可以啦
```bash

使用真实的hostname(否则会自动把你的hostname改成node1/node2…这种哦)

$ export USE_REAL_HOSTNAME=true

指定配置文件位置

$ export CONFIG_FILE=inventory/mycluster/hosts.yaml

定义ip列表(你的服务器内网ip地址列表,3台及以上,前两台默认为master节点)

$ declare -a IPS=(10.155.19.223 10.155.19.64 10.155.19.147)

生成配置文件

$ python3 contrib/inventory_builder/inventory.py ${IPS[@]}
```

3.4 个性化配置

配置文件都生成好了,虽然可以直接用,但并不能完全满足大家的个性化需求,比如用docker还是containerd?docker的工作目录是否用默认的/var/lib/docker?等等。当然默认的情况kubespray还会到google的官方仓库下载镜像、二进制文件,这个就需要你的服务器可以上外面的网,想上外网也需要修改一些配置。
```bash

定制化配置文件

1. 节点组织配置(这里可以调整每个节点的角色)

$ vi inventory/mycluster/hosts.yaml

2. containerd配置(教程使用containerd作为容器引擎)

$ vi inventory/mycluster/group_vars/all/containerd.yml

3. 全局配置(可以在这配置http(s)代理实现外网访问)

$ vi inventory/mycluster/group_vars/all/all.yml

4. k8s集群配置(包括设置容器运行时、svc网段、pod网段等)

$ vi inventory/mycluster/group_vars/k8s-cluster/k8s-cluster.yml

5. 修改etcd部署类型为host(默认是docker)

$ vi ./inventory/mycluster/group_vars/etcd.yml

6. 附加组件(ingress、dashboard等)

$ vi ./inventory/mycluster/group_vars/k8s-cluster/addons.yml
```

3.5 一键部署

配置文件都调整好了后,就可以开始一键部署啦,不过部署过程不出意外会非常慢。
如果您使用的是教程同一个版本建议下使用网盘下载好二进制文件和镜像

网盘下载二进制(可选)
链接: https://pan.baidu.com/s/11eDin8BDJVzGgXJW9e6cog 提取码: mrj9

下载好之后解压到每个节点的根目录即可,解压完成后的目录是/tmp/releases

一键部署

```bash

-vvvv会打印最详细的日志信息,建议开启

$ ansible-playbook -i inventory/mycluster/hosts.yaml -b cluster.yml -vvvv
```
经过漫长的等待后,如果没有问题,整个集群都部署起来啦

下载镜像(可选)

为了减少“一键部署”的等待时间,可以在部署的同时,预先下载一些镜像。
```bash
$ curl https://gitee.com/pa/pub-doc/raw/master/kubespray-v2.15.0-images.sh|bash -x
```
`重要:此操作需要确保上面的"一键部署"执行后,并成功安装了containerd后即可手动下载镜像)`

3.6 清理代理设置

清理代理设置(运行时不再需要代理,删掉代理配置即可)

删除docker的http代理(在每个节点执行)

```bash
$ rm -f /etc/systemd/system/containerd.service.d/http-proxy.conf
$ systemctl daemon-reload
$ systemctl restart containerd
```

删除yum代理

```bash

把grep出来的代理配置手动删除即可

$ grep 8118 -r /etc/yum*
```

01-使用Kubespray部署Kubernetes生产集群

# 二、集群冒烟测试

1. 创建nginx ds

```bash
# 写入配置
$ cat > nginx-ds.yml <<EOF
apiVersion: v1
kind: Service
metadata:
name: nginx-ds
labels:
app: nginx-ds
spec:
type: NodePort
selector:
app: nginx-ds
ports:

  • name: http
    port: 80

targetPort: 80

apiVersion: apps/v1
kind: DaemonSet
metadata:
name: nginx-ds
spec:
selector:
matchLabels:
app: nginx-ds
template:
metadata:
labels:
app: nginx-ds
spec:
containers:
- name: my-nginx
image: nginx:1.19
ports:
- containerPort: 80
EOF

创建ds

$ kubectl apply -f nginx-ds.yml

```

2. 检查各种ip连通性

```bash

检查各 Node 上的 Pod IP 连通性

$ kubectl get pods -o wide

在每个节点上ping pod ip

$ ping

检查service可达性

$ kubectl get svc

在每个节点上访问服务

$ curl :

在每个节点检查node-port可用性

$ curl :
```

3. 检查dns可用性

```bash

创建一个nginx pod

$ cat > pod-nginx.yaml <<EOF
apiVersion: v1
kind: Pod
metadata:
name: nginx
spec:
containers:

  • name: nginx image: docker.io/library/nginx:1.19 ports:
    • containerPort: 80
      EOF

创建pod

$ kubectl apply -f pod-nginx.yaml

进入pod,查看dns

$ kubectl exec nginx -it -- /bin/bash

查看dns配置

root@nginx:/# cat /etc/resolv.conf

查看名字是否可以正确解析

root@nginx:/# ping nginx-ds
```

4. 日志功能

测试使用kubectl查看pod的容器日志
```bash
$ kubectl get pods
$ kubectl logs
```

5. Exec功能

测试kubectl的exec功能
```bash
$ kubectl get pods -l app=nginx-ds
$ kubectl exec -it -- nginx -v
```

02-集群冒烟测试

# 三、 访问dashboard

1. 创建service

```bash
$ cat > dashboard-svc.yaml <<EOF
apiVersion: v1
kind: Service
metadata:
namespace: kube-system
name: dashboard
labels:
app: dashboard
spec:
type: NodePort
selector:
k8s-app: kubernetes-dashboard
ports:

  • name: https
    nodePort: 30000
    port: 443
    targetPort: 8443
    EOF

$ kubectl apply -f dashboard-svc.yaml
```

2. 访问dashboard

为了集群安全,从 1.7 开始,dashboard 只允许通过 https 访问,我们使用nodeport的方式暴露服务,可以使用 https://NodeIP:NodePort 地址访问
关于自定义证书
默认dashboard的证书是自动生成的,肯定是非安全的证书,如果大家有域名和对应的安全证书可以自己替换掉。使用安全的域名方式访问dashboard。
在dashboard-all.yaml中增加dashboard启动参数,可以指定证书文件,其中证书文件是通过secret注进来的。

\- –tls-cert-file
\- dashboard.cer
\- –tls-key-file
\- dashboard.key

3. 登录dashboard

Dashboard 默认只支持 token 认证,所以如果使用 KubeConfig 文件,需要在该文件中指定 token,我们这里使用token的方式登录
```bash

创建service account

$ kubectl create sa dashboard-admin -n kube-system

创建角色绑定关系

$ kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin

查看dashboard-admin的secret名字

$ ADMIN_SECRET=$(kubectl get secrets -n kube-system | grep dashboard-admin | awk '{print $1}')

打印secret的token

$ kubectl describe secret -n kube-system ${ADMIN_SECRET} | grep -E '^token' | awk '{print $2}'
```

03-访问dashboar

# 四、集群运维

1. Master节点

增加master节点

```bash

1.编辑hosts.yaml,增加master节点配置

$ vi inventory/mycluster/hosts.yaml

2.执行cluster.yml(不要用scale.yml)

$ ansible-playbook -i inventory/mycluster/hosts.yaml cluster.yml -b -v

3.重启nginx-proxy - 在所有节点执行下面命令重启nginx-proxy

$ docker ps | grep k8s_nginx-proxy_nginx-proxy | awk '{print $1}' | xargs docker restart
```

删除master节点

`如果你要删除的是配置文件中第一个节点,需要先调整配置,将第一行配置下移,再重新运行cluster.yml,使其变成非第一行配置。举例如下:`
```bash

场景:下线node-1节点

$ vi inventory/mycluster/hosts.yaml

变更前的配置

children:
kube-master:
hosts:
node-1:
node-2:
node-3:

变更后的配置

children:
kube-master:
hosts:
node-2:
node-1:
node-3:

再执行一次cluster.yml

$ ansible-playbook -i inventory/mycluster/hosts.yaml -b cluster.yml
```
非第一行的master节点下线流程:
```bash

执行remove-node.yml(不要在hosts.yaml中删除要下线的节点)

$ ansible-playbook -i inventory/mycluster/hosts.yaml remove-node.yml -b -v -e "node=NODE-NAME"

同步hosts.yaml(编辑hosts.yaml将下线的节点删除,保持集群状态和配置文件的一致性)

$ vi inventory/mycluster/hosts.yaml
```

2. Worker节点

增加worker节点

```bash

刷新缓存

$ ansible-playbook -i inventory/mycluster/hosts.yaml facts.yml -b -v

修改配置hosts.yaml,增加节点

$ vi inventory/mycluster/hosts.yaml

执行scale添加节点,--limit限制只在某个固定节点执行

$ ansible-playbook -i inventory/mycluster/hosts.yaml scale.yml --limit=NODE-NAME -b -v
```

删除worker节点

```bash

此命令可以下线节点,不影响其他正在运行中的节点,并清理节点上所有的容器以及kubelet,恢复初始状态,多个节点逗号分隔

$ ansible-playbook -i inventory/mycluster/hosts.yaml remove-node.yml -b -v -e "node=NODE-NAME-1,NODE-NAME-2,…"

同步hosts.yaml(编辑hosts.yaml将下线的节点删除,保持集群状态和配置文件的一致性)

$ vi inventory/mycluster/hosts.yaml
```

3. ETCD节点

`如果要变更的etcd节点同时也是master或worker节点,需要先将master/worker节点按照前面的文档操作下线,保留纯粹的etcd节点`

增加etcd节点

```bash

编辑hosts.yaml(可以增加1个或2个etcd节点配置)

$ vi inventory/mycluster/hosts.yaml

更新etcd集群

$ ansible-playbook -i inventory/mycluster/hosts.yaml upgrade-cluster.yml --limit=etcd,kube-master -e ignore_assert_errors=yes -e etcd_retries=10
```

删除etcd节点

```bash

执行remove-node.yml(不要在hosts.yaml中删除要下线的节点)

$ ansible-playbook -i inventory/mycluster/hosts.yaml remove-node.yml -b -v -e "node=NODE-NAME"

同步hosts.yaml(编辑hosts.yaml将下线的节点删除,保持集群状态和配置文件的一致性)

$ vi inventory/mycluster/hosts.yaml

运行cluster.yml给node节点重新生成etcd节点相关的配置

$ ansible-playbook -i inventory/mycluster/hosts.yaml -b cluster.yml
```

4. 其他常用命令

集群reset

```bash

运行reset.yml一键清理集群

$ ansible-playbook -i inventory/mycluster/hosts.yaml -b -v reset.yml
```

自定义play起始点

当我们执行play的过程中如果有问题,需要重新的时候,如果重新执行指令会重新经历前面漫长的等待,这个时候“跳过”功能就显得非常有用
```bash

通过--start-at-task指定从哪个task处开始执行,会跳过前面的任务,举例如下

$ ansible-playbook --start-at-task="reset | gather mounted kubelet dirs"
```

忽略错误

当有些错误是我们确认可以接受的或误报的,可以配置ignore_errors: true,避免task出现错误后影响整个流程的执行。
```bash

示例片段如下:

  • name: "Remove physical volume from cluster disks."
    environment:
    PATH: "{{ ansible_env.PATH }}:/sbin"
    become: true
    command: "pvremove {{ disk_volume_device_1 }} --yes"
    ignore_errors: true
    ```

04-集群运维

# 集群一键部署 - FAQ

1. google相关的镜像、二进制文件下载失败

现象

错误提示中可以看到诸如google、googleapi等url,提示连接超时

分析

这种一般是没有设置代理(google属于墙外资源,需要代理访问)
编辑配置文件设置http_proxy和https_proxy

2. TASK [container-engine/containerd : ensure containerd packages are installed]失败

现象

执行到这个task会卡住很久,并且多次重试后最终退出

分析

containerd下载文件较大,会耗时比较长,网络不好的情况,会下载超时,导致失败。
可以多尝试几次。如果依然不行可以在每个节点手动下载containerd
```bash
$ yum -d 2 -y --enablerepo=docker-ce install containerd.io-

05-集群部署

二进制安装

1.缺点安装比较复杂,难点在于证书认证分发

2.优点在于排错成本低,使用更加丝滑

注意点:

1.etcd集群尽量用宿主机部署

2.etcd集群节点尽量与apiserver进行区分(方便server与api上下线)

3.etcd集群证书单独准备不要与server证书共用(方便etcd扩缩容)etcd扩容需要重新下发证书

4.kubernetes各配置文件要明确端口协议等信息方便监控

5.api-server高可用可通过ingress-nginx进行负载轮询访问添加健康检查功能(实体机可使用keeplive 虚拟ip)

6.网络插件尽量使用calico等不要采用overledy

7.dns插件升级为coredns与kubernetes1.6版本以后节点缓存相契合

8.kubernetes1.20后不支持docker,使用containerd一定要反复测试与三方软件是否兼容

9.节点预先下载好pause镜像。

# 一、基础环境准备

`使用二进制方式,手动部署kubernetes高可用集群`
`注意:所有操作使用root用户执行`

1. 服务器说明

1.1. 节点要求

节点数 >=3台
CPU >=2
Memory >=2G
安全组:关闭(允许节点之间任意端口访问,以及ipip隧道协议通讯)

1.2. 演示环境说明

我们这里使用的是三台centos 7.5的虚拟机,具体信息如下表:

系统类型 IP地址 节点角色 CPU Memory Hostname
centos-7.5 10.155.19.223 master \>=2 \>=2G node-1
centos-7.5 10.155.19.64 master、worker \>=2 \>=2G node-2
centos-7.5 10.155.19.147 worker \>=2 \>=2G node-3

2. 系统设置(所有节点)

2.1 主机名

主机名必须合法,并且每个节点都不一样(建议命名规范:数字+字母+中划线组合,不要包含其他特殊字符)。
```bash

查看主机名

$ hostname

修改主机名

$ hostnamectl set-hostname

配置host,问使主节点之间可以通过hostname互相访

$ vi /etc/hosts

```

2.2 安装依赖包

```bash

yum源更新(可选,如果很久没有更新过建议更新一次)

$ yum update -y

安装依赖包

$ yum install -y socat conntrack ipvsadm ipset jq sysstat curl iptables libseccomp yum-utils
```

2.3 关闭防火墙、selinux、swap,重置iptables

```bash

关闭selinux

$ setenforce 0
$ sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config

关闭防火墙

$ systemctl stop firewalld && systemctl disable firewalld

设置iptables规则

$ iptables -F && iptables -X && iptables -F -t nat && iptables -X -t nat && iptables -P FORWARD ACCEPT

关闭swap

$ swapoff -a && free –h

关闭dnsmasq(否则可能导致容器无法解析域名)

$ service dnsmasq stop && systemctl disable dnsmasq
```

2.4 k8s参数设置

```bash

制作配置文件

$ cat > /etc/sysctl.d/kubernetes.conf <<EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_nonlocal_bind = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
vm.overcommit_memory = 0
EOF

生效文件

$ sysctl -p /etc/sysctl.d/kubernetes.conf
```

2.5 配置免密登录

为了方便文件的copy我们选择一个中转节点(随便一个节点,可以是集群中的也可以是非集群中的),配置好跟其他所有节点的免密登录
```bash

看看是否已经存在rsa公钥

$ cat ~/.ssh/id_rsa.pub

如果不存在就创建一个新的

$ ssh-keygen -t rsa

把id_rsa.pub文件内容copy到其他机器的授权文件中

$ cat ~/.ssh/id_rsa.pub

在其他节点执行下面命令(包括worker节点)

$ echo "" >> ~/.ssh/authorized_keys
```

3. 准备k8s软件包

3.1 软件包下载

`在任意一个节点下载好压缩包后,复制到所有节点即可`

master节点组件:kube-apiserver、kube-controller-manager、kube-scheduler、kubectl
worker节点组件:kubelet、kube-proxy

[点此从网盘下载](https://pan.baidu.com/s/159YL1l_duFtE_2OESBI85Q) 提取码: 7ci3

```bash

设定版本号

$ export VERSION=v1.20.2

下载master节点组件

$ wget https://storage.googleapis.com/kubernetes-release/release/${VERSION}/bin/linux/amd64/kube-apiserver
$ wget https://storage.googleapis.com/kubernetes-release/release/${VERSION}/bin/linux/amd64/kube-controller-manager
$ wget https://storage.googleapis.com/kubernetes-release/release/${VERSION}/bin/linux/amd64/kube-scheduler
$ wget https://storage.googleapis.com/kubernetes-release/release/${VERSION}/bin/linux/amd64/kubectl

下载worker节点组件

$ wget https://storage.googleapis.com/kubernetes-release/release/${VERSION}/bin/linux/amd64/kube-proxy
$ wget https://storage.googleapis.com/kubernetes-release/release/${VERSION}/bin/linux/amd64/kubelet

下载etcd组件

$ wget https://github.com/etcd-io/etcd/releases/download/v3.4.10/etcd-v3.4.10-linux-amd64.tar.gz
$ tar -xvf etcd-v3.4.10-linux-amd64.tar.gz
$ mv etcd-v3.4.10-linux-amd64/etcd* .
$ rm -fr etcd-v3.4.10-linux-amd64*

统一修改文件权限为可执行

$ chmod +x kube*
```

3.2 软件包分发

完成下载后,分发文件,将每个节点需要的文件scp过去
```bash

把master相关组件分发到master节点

$ MASTERS=(node-1 node-2)
for instance in ${MASTERS[@]}; do
scp kube-apiserver kube-controller-manager kube-scheduler kubectl root@${instance}:/usr/local/bin/
done

把worker先关组件分发到worker节点

$ WORKERS=(node-2 node-3)
for instance in ${WORKERS[@]}; do
scp kubelet kube-proxy root@${instance}:/usr/local/bin/
done

把etcd组件分发到etcd节点

$ ETCDS=(node-1 node-2 node-3)
for instance in ${ETCDS[@]}; do
scp etcd etcdctl root@${instance}:/usr/local/bin/
done
```

基础环境准备

# 二、生成证书

0. 安装cfssl

cfssl是非常好用的CA工具,我们用它来生成证书和秘钥文件
安装过程比较简单,如下:
```bash

下载

$ wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64 -O /usr/local/bin/cfssl
$ wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64 -O /usr/local/bin/cfssljson

修改为可执行权限

$ chmod +x /usr/local/bin/cfssl /usr/local/bin/cfssljson

验证

$ cfssl version
```

1. 根证书

根证书是集群所有节点共享的,只需要创建一个 CA 证书,后续创建的所有证书都由它签名。
在任意节点(可以免密登录到其他节点)创建一个单独的证书目录,如:`mkdir pki && cd pki`

根证书配置文件

```bash
$ cat > ca-config.json <<EOF
{
"signing": {
"default": {
"expiry": "876000h"
},
"profiles": {
"kubernetes": {
"usages": ["signing", "key encipherment", "server auth", "client auth"],
"expiry": "876000h"
}
}
}
}
EOF

$ cat > ca-csr.json <<EOF
{
"CN": "Kubernetes",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "US",
"L": "Portland",
"O": "Kubernetes",
"OU": "CA",
"ST": "Oregon"
}
]
}
EOF

```

生成证书和私钥

```bash

生成证书和私钥

$ cfssl gencert -initca ca-csr.json | cfssljson -bare ca

生成完成后会有以下文件(我们最终想要的就是ca-key.pem和ca.pem,一个秘钥,一个证书)

$ ls
ca-config.json ca.csr ca-csr.json ca-key.pem ca.pem
```

2. admin客户端证书

admin客户端证书配置文件

```bash
$ cat > admin-csr.json <<EOF
{
"CN": "admin",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "system:masters",
"OU": "seven"
}
]
}
EOF
```

生成admin客户端证书和私钥

```bash
$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-profile=kubernetes \
admin-csr.json | cfssljson -bare admin
```

3. kubelet客户端证书

Kubernetes使用一种称为Node Authorizer的专用授权模式来授权Kubelets发出的API请求。 Kubelet使用将其标识为system:nodes组中的凭据,其用户名为system:node:nodeName,接下里就给每个工作节点生成证书。

生成kubelet客户端证书和私钥

```bash

设置你的worker节点列表

$ WORKERS=(node-2 node-3)
$ WORKER_IPS=(10.155.19.64 10.155.19.147)

生成所有worker节点的证书配置

$ for ((i=0;i<${#WORKERS[@]};i++)); do cat > ${WORKERS[$i]}-csr.json <<EOF
{
"CN": "system:node:${WORKERS[$i]}",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"L": "Beijing",
"O": "system:nodes",
"OU": "seven",
"ST": "Beijing"
}
]
}
EOF
cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-hostname=${WORKERS[$i]},${WORKER_IPS[$i]} \
-profile=kubernetes \
${WORKERS[$i]}-csr.json | cfssljson -bare ${WORKERS[$i]}
done

```

4. kube-controller-manager客户端证书

kube-controller-manager客户端证书配置文件

```bash
$ cat > kube-controller-manager-csr.json <<EOF
{
"CN": "system:kube-controller-manager",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "system:kube-controller-manager",
"OU": "seven"
}
]
}
EOF
```

生成kube-controller-manager客户端证书

```bash
$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-profile=kubernetes \
kube-controller-manager-csr.json | cfssljson -bare kube-controller-manager
```

5. kube-proxy客户端证书

kube-proxy客户端证书配置文件

```bash
$ cat > kube-proxy-csr.json <<EOF
{
"CN": "system:kube-proxy",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "k8s",
"OU": "seven"
}
]
}
EOF
```

生成kube-proxy客户端证书

```bash
$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-profile=kubernetes \
kube-proxy-csr.json | cfssljson -bare kube-proxy
```

6. kube-scheduler客户端证书

kube-scheduler客户端证书配置文件

```bash
$ cat > kube-scheduler-csr.json <<EOF
{
"CN": "system:kube-scheduler",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "system:kube-scheduler",
"OU": "seven"
}
]
}
EOF
```

生成kube-scheduler客户端证书

```bash
$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-profile=kubernetes \
kube-scheduler-csr.json | cfssljson -bare kube-scheduler
```

7. kube-apiserver服务端证书

kube-apiserver服务端证书配置文件

```bash
$ cat > kubernetes-csr.json <<EOF
{
"CN": "kubernetes",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "k8s",
"OU": "seven"
}
]
}
EOF
```

生成kube-apiserver服务端证书

服务端证书与客户端略有不同,客户端需要通过一个名字或者一个ip去访问服务端,所以证书必须要包含客户端所访问的名字或ip,用以客户端验证。
```bash

apiserver的service ip地址(一般是svc网段的第一个ip)

$ KUBERNETES_SVC_IP=10.233.0.1

所有的master内网ip,逗号分隔(云环境可以加上master公网ip以便支持公网ip访问)

$ MASTER_IPS=10.155.19.223,10.155.19.64,10.155.19.147

生成证书

$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-hostname=${KUBERNETES_SVC_IP},${MASTER_IPS},127.0.0.1,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.svc.cluster.local \
-profile=kubernetes \
kubernetes-csr.json | cfssljson -bare kubernetes
```

8. Service Account证书

配置文件

```bash
$ cat > service-account-csr.json <<EOF
{
"CN": "service-accounts",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "k8s",
"OU": "seven"
}
]
}
EOF
```

生成证书

```bash
$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-profile=kubernetes \
service-account-csr.json | cfssljson -bare service-account
```

9. proxy-client 证书

配置文件

```bash
$ cat > proxy-client-csr.json <<EOF
{
"CN": "aggregator",
"key": {
"algo": "rsa",
"size": 2048
},
"names": [
{
"C": "CN",
"ST": "BeiJing",
"L": "BeiJing",
"O": "k8s",
"OU": "seven"
}
]
}
EOF
```

生成证书

```bash
$ cfssl gencert \
-ca=ca.pem \
-ca-key=ca-key.pem \
-config=ca-config.json \
-profile=kubernetes \
proxy-client-csr.json | cfssljson -bare proxy-client
```

10. 分发客户端、服务端证书

分发worker节点需要的证书和私钥

```bash
for instance in ${WORKERS[@]}; do
scp ca.pem ${instance}-key.pem ${instance}.pem root@${instance}:~/
done
```

分发master节点需要的证书和私钥

注意:由于下面分发的证书即包含了etcd的证书也包含了k8s主节点的证书。
所以 MASTER_IPS 中必须包含所有 `master` 节点以及 `etcd` 节点。如果没有包含所有etcd节点的证书,需要重新定义,逗号分隔

```bash
OIFS=$IFS
IFS=','
for instance in ${MASTER_IPS}; do
scp ca.pem ca-key.pem kubernetes-key.pem kubernetes.pem \
service-account-key.pem service-account.pem proxy-client.pem proxy-client-key.pem root@${instance}:~/
done
IFS=$OIFS
```

证书生成

# 三、kubernetes各组件的认证配置
kubernetes的认证配置文件,也叫kubeconfigs,用于让kubernetes的客户端定位kube-apiserver并通过apiserver的安全认证。

接下来我们一起来生成各个组件的kubeconfigs,包括controller-manager,kubelet,kube-proxy,scheduler,以及admin用户。

以下命令需要与上一节“生成证书”在同一个目录下执行

1. kubelet

```bash

指定你的worker列表(hostname),空格分隔

$ WORKERS="node-2 node-3"
$ for instance in ${WORKERS[@]}; do
kubectl config set-cluster kubernetes \
--certificate-authority=ca.pem \
--embed-certs=true \
--server=https://127.0.0.1:6443 \
--kubeconfig=${instance}.kubeconfig

kubectl config set-credentials system:node:${instance} \
--client-certificate=${instance}.pem \
--client-key=${instance}-key.pem \
--embed-certs=true \
--kubeconfig=${instance}.kubeconfig

kubectl config set-context default \
--cluster=kubernetes \
--user=system:node:${instance} \
--kubeconfig=${instance}.kubeconfig

kubectl config use-context default --kubeconfig=${instance}.kubeconfig
done
```

2. kube-proxy

```bash
kubectl config set-cluster kubernetes \
--certificate-authority=ca.pem \
--embed-certs=true \
--server=https://127.0.0.1:6443 \
--kubeconfig=kube-proxy.kubeconfig

kubectl config set-credentials system:kube-proxy \
--client-certificate=kube-proxy.pem \
--client-key=kube-proxy-key.pem \
--embed-certs=true \
--kubeconfig=kube-proxy.kubeconfig

kubectl config set-context default \
--cluster=kubernetes \
--user=system:kube-proxy \
--kubeconfig=kube-proxy.kubeconfig

kubectl config use-context default --kubeconfig=kube-proxy.kubeconfig
```

3. kube-controller-manager

```bash
kubectl config set-cluster kubernetes \
--certificate-authority=ca.pem \
--embed-certs=true \
--server=https://127.0.0.1:6443 \
--kubeconfig=kube-controller-manager.kubeconfig

kubectl config set-credentials system:kube-controller-manager \
--client-certificate=kube-controller-manager.pem \
--client-key=kube-controller-manager-key.pem \
--embed-certs=true \
--kubeconfig=kube-controller-manager.kubeconfig

kubectl config set-context default \
--cluster=kubernetes \
--user=system:kube-controller-manager \
--kubeconfig=kube-controller-manager.kubeconfig

kubectl config use-context default --kubeconfig=kube-controller-manager.kubeconfig
```

4. kube-scheduler

```bash
kubectl config set-cluster kubernetes \
--certificate-authority=ca.pem \
--embed-certs=true \
--server=https://127.0.0.1:6443 \
--kubeconfig=kube-scheduler.kubeconfig

kubectl config set-credentials system:kube-scheduler \
--client-certificate=kube-scheduler.pem \
--client-key=kube-scheduler-key.pem \
--embed-certs=true \
--kubeconfig=kube-scheduler.kubeconfig

kubectl config set-context default \
--cluster=kubernetes \
--user=system:kube-scheduler \
--kubeconfig=kube-scheduler.kubeconfig

kubectl config use-context default --kubeconfig=kube-scheduler.kubeconfig
```

5. admin用户配置

为admin用户生成kubeconfig配置
```bash
kubectl config set-cluster kubernetes \
--certificate-authority=ca.pem \
--embed-certs=true \
--server=https://127.0.0.1:6443 \
--kubeconfig=admin.kubeconfig

kubectl config set-credentials admin \
--client-certificate=admin.pem \
--client-key=admin-key.pem \
--embed-certs=true \
--kubeconfig=admin.kubeconfig

kubectl config set-context default \
--cluster=kubernetes \
--user=admin \
--kubeconfig=admin.kubeconfig

kubectl config use-context default --kubeconfig=admin.kubeconfig
```

6. 分发配置文件

6.1把kubelet和kube-proxy需要的kubeconfig配置分发到每个worker节点

```bash
$ WORKERS="node-2 node-3"
$ for instance in ${WORKERS[@]}; do
scp ${instance}.kubeconfig kube-proxy.kubeconfig ${instance}:~/
done
```

6.2 把kube-controller-manager和kube-scheduler需要的kubeconfig配置分发到master节点

```bash
$ MASTERS="node-1 node-2"
$ for instance in ${MASTERS[@]}; do
scp admin.kubeconfig kube-controller-manager.kubeconfig kube-scheduler.kubeconfig ${instance}:~/
done
```

kubernetes各组件认证配置

# 四、部署ETCD集群
Kubernetes组件是无状态的,并在etcd中存储集群状态。 在本小节中,我们将部署三个节点的etcd群集,并对其进行配置以实现高可用性和安全的远程访问。

1. 配置etcd

copy必要的证书文件
```bash
$ mkdir -p /etc/etcd /var/lib/etcd
$ chmod 700 /var/lib/etcd
$ cp ca.pem kubernetes-key.pem kubernetes.pem /etc/etcd/
```
配置etcd.service文件
```bash
$ ETCD_NAME=$(hostname -s)
$ ETCD_IP=10.155.19.223

etcd所有节点的ip地址

$ ETCD_NAMES=(node-1 node-2 node-3)
$ ETCD_IPS=(10.155.19.223 10.155.19.64 10.155.19.147)
$ cat < /etc/systemd/system/etcd.service
[Unit]
Description=etcd
Documentation=https://github.com/coreos

[Service]
Type=notify
ExecStart=/usr/local/bin/etcd \\
--name ${ETCD_NAME} \\
--cert-file=/etc/etcd/kubernetes.pem \\
--key-file=/etc/etcd/kubernetes-key.pem \\
--peer-cert-file=/etc/etcd/kubernetes.pem \\
--peer-key-file=/etc/etcd/kubernetes-key.pem \\
--trusted-ca-file=/etc/etcd/ca.pem \\
--peer-trusted-ca-file=/etc/etcd/ca.pem \\
--peer-client-cert-auth \\
--client-cert-auth \\
--initial-advertise-peer-urls https://${ETCD_IP}:2380 \\
--listen-peer-urls https://${ETCD_IP}:2380 \\
--listen-client-urls https://${ETCD_IP}:2379,https://127.0.0.1:2379 \\
--advertise-client-urls https://${ETCD_IP}:2379 \\
--initial-cluster-token etcd-cluster-0 \\
--initial-cluster ${ETCD_NAMES[0]}=https://${ETCD_IPS[0]}:2380,${ETCD_NAMES[1]}=https://${ETCD_IPS[1]}:2380,${ETCD_NAMES[2]}=https://${ETCD_IPS[2]}:2380 \\
--initial-cluster-state new \\
--data-dir=/var/lib/etcd
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF
```

2. 启动etcd集群

所有etcd节点都配置好etcd.service后,启动etcd集群
```bash
$ systemctl daemon-reload && systemctl enable etcd && systemctl restart etcd
```

3. 验证etcd集群

验证etcd集群状态
```bash
ETCDCTL_API=3 etcdctl member list \
--endpoints=https://127.0.0.1:2379 \
--cacert=/etc/etcd/ca.pem \
--cert=/etc/etcd/kubernetes.pem \
--key=/etc/etcd/kubernetes-key.pem
```

部署etcd集群

# 五、部署kubernetes控制平面
这部分我们部署kubernetes的控制平面,每个组件有多个点保证高可用。实例中我们在两个节点上部署 API Server、Scheduler 和 Controller Manager。当然你也可以按照教程部署三个节点的高可用,操作都是一致的。

下面的所有命令都是运行在每个master节点的,我们的实例中是 node-1 和 node-2

1. 配置 API Server

```bash

创建kubernetes必要目录

$ mkdir -p /etc/kubernetes/ssl

准备证书文件

$ mv ca.pem ca-key.pem kubernetes-key.pem kubernetes.pem \
service-account-key.pem service-account.pem \
proxy-client.pem proxy-client-key.pem \
/etc/kubernetes/ssl

配置kube-apiserver.service

本机内网ip

$ IP=10.155.19.223

apiserver实例数

$ APISERVER_COUNT=2

etcd节点

$ ETCD_ENDPOINTS=(10.155.19.223 10.155.19.64 10.155.19.147)

创建 apiserver service

$ cat < /etc/systemd/system/kube-apiserver.service
[Unit]
Description=Kubernetes API Server
Documentation=https://github.com/kubernetes/kubernetes

[Service]
ExecStart=/usr/local/bin/kube-apiserver \\
--advertise-address=${IP} \\
--allow-privileged=true \\
--apiserver-count=${APISERVER_COUNT} \\
--audit-log-maxage=30 \\
--audit-log-maxbackup=3 \\
--audit-log-maxsize=100 \\
--audit-log-path=/var/log/audit.log \\
--authorization-mode=Node,RBAC \\
--bind-address=0.0.0.0 \\
--client-ca-file=/etc/kubernetes/ssl/ca.pem \\
--enable-admission-plugins=NamespaceLifecycle,NodeRestriction,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota \\
--etcd-cafile=/etc/kubernetes/ssl/ca.pem \\
--etcd-certfile=/etc/kubernetes/ssl/kubernetes.pem \\
--etcd-keyfile=/etc/kubernetes/ssl/kubernetes-key.pem \\
--etcd-servers=https://${ETCD_ENDPOINTS[0]}:2379,https://${ETCD_ENDPOINTS[1]}:2379,https://${ETCD_ENDPOINTS[2]}:2379,https://${ETCD_ENDPOINTS[3]}:2379 \\
--event-ttl=1h \\
--kubelet-certificate-authority=/etc/kubernetes/ssl/ca.pem \\
--kubelet-client-certificate=/etc/kubernetes/ssl/kubernetes.pem \\
--kubelet-client-key=/etc/kubernetes/ssl/kubernetes-key.pem \\
--service-account-issuer=api \\
--service-account-key-file=/etc/kubernetes/ssl/service-account.pem \\
--service-account-signing-key-file=/etc/kubernetes/ssl/service-account-key.pem \\
--api-audiences=api,vault,factors \\
--service-cluster-ip-range=10.233.0.0/16 \\
--service-node-port-range=30000-32767 \\
--proxy-client-cert-file=/etc/kubernetes/ssl/proxy-client.pem \\
--proxy-client-key-file=/etc/kubernetes/ssl/proxy-client-key.pem \\
--runtime-config=api/all=true \\
--requestheader-client-ca-file=/etc/kubernetes/ssl/ca.pem \\
--requestheader-allowed-names=aggregator \\
--requestheader-extra-headers-prefix=X-Remote-Extra- \\
--requestheader-group-headers=X-Remote-Group \\
--requestheader-username-headers=X-Remote-User \\
--tls-cert-file=/etc/kubernetes/ssl/kubernetes.pem \\
--tls-private-key-file=/etc/kubernetes/ssl/kubernetes-key.pem \\
--v=1
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF
```

2. 配置kube-controller-manager

```bash

准备kubeconfig配置文件

$ mv kube-controller-manager.kubeconfig /etc/kubernetes/

创建 kube-controller-manager.service

$ cat < /etc/systemd/system/kube-controller-manager.service
[Unit]
Description=Kubernetes Controller Manager
Documentation=https://github.com/kubernetes/kubernetes

[Service]
ExecStart=/usr/local/bin/kube-controller-manager \\
--bind-address=0.0.0.0 \\
--cluster-cidr=10.200.0.0/16 \\
--cluster-name=kubernetes \\
--cluster-signing-cert-file=/etc/kubernetes/ssl/ca.pem \\
--cluster-signing-key-file=/etc/kubernetes/ssl/ca-key.pem \\
--cluster-signing-duration=876000h0m0s \\
--kubeconfig=/etc/kubernetes/kube-controller-manager.kubeconfig \\
--leader-elect=true \\
--root-ca-file=/etc/kubernetes/ssl/ca.pem \\
--service-account-private-key-file=/etc/kubernetes/ssl/service-account-key.pem \\
--service-cluster-ip-range=10.233.0.0/16 \\
--use-service-account-credentials=true \\
--v=1
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF

```

3. 配置kube-scheduler

```bash

准备kubeconfig配置文件

$ mv kube-scheduler.kubeconfig /etc/kubernetes

创建 scheduler service 文件

$ cat < /etc/systemd/system/kube-scheduler.service
[Unit]
Description=Kubernetes Scheduler
Documentation=https://github.com/kubernetes/kubernetes

[Service]
ExecStart=/usr/local/bin/kube-scheduler \\
--authentication-kubeconfig=/etc/kubernetes/kube-scheduler.kubeconfig \\
--authorization-kubeconfig=/etc/kubernetes/kube-scheduler.kubeconfig \\
--kubeconfig=/etc/kubernetes/kube-scheduler.kubeconfig \\
--leader-elect=true \\
--bind-address=0.0.0.0 \\
--port=0 \\
--v=1
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF
```

4. 启动服务

```bash
$ systemctl daemon-reload
$ systemctl enable kube-apiserver
$ systemctl enable kube-controller-manager
$ systemctl enable kube-scheduler
$ systemctl restart kube-apiserver
$ systemctl restart kube-controller-manager
$ systemctl restart kube-scheduler
```

5. 服务验证

端口验证

```bash

各个组件的监听端口

$ netstat -ntlp
tcp 0 0 127.0.0.1:2379 0.0.0.0:* LISTEN 6887/etcd
tcp 0 0 10.155.19.223:2379 0.0.0.0:* LISTEN 6887/etcd
tcp 0 0 10.155.19.223:2380 0.0.0.0:* LISTEN 6887/etcd
tcp6 0 0 :::6443 :::* LISTEN 4088/kube-apiserver
tcp6 0 0 :::10252 :::* LISTEN 2910/kube-controlle
tcp6 0 0 :::10257 :::* LISTEN 2910/kube-controlle
tcp6 0 0 :::10259 :::* LISTEN 4128/kube-scheduler
```

系统日志验证

```bash

查看系统日志是否有组件的错误日志

$ journalctl -f
```

6. 配置kubectl

kubectl是用来管理kubernetes集群的客户端工具,前面我们已经下载到了所有的master节点。下面我们来配置这个工具,让它可以使用。
```bash

创建kubectl的配置目录

$ mkdir ~/.kube/

把管理员的配置文件移动到kubectl的默认目录

$ mv ~/admin.kubeconfig ~/.kube/config

测试

$ kubectl get nodes
```

在执行 kubectl exec、run、logs 等命令时,apiserver 会转发到 kubelet。这里定义 RBAC 规则,授权 apiserver 调用 kubelet API。

```bash
$ kubectl create clusterrolebinding kube-apiserver:kubelet-apis --clusterrole=system:kubelet-api-admin --user kubernetes
```

部署kubernetes控制平面

# 六、部署kubernetes工作节点
这部分我们部署kubernetes的工作节点。实例中我们有两个工作节点,一个是独立的工作节点,一个是跟master在一起的节点。
在每个节点上我们会部署kubelet、kube-proxy、container runtime、cni、nginx-proxy

下面的操作需要在每一个工作节点执行

1. Container Runtime - Containerd

1.1 软件包下载

```bash

设定containerd的版本号

$ VERSION=1.4.3

下载压缩包

$ wget https://github.com/containerd/containerd/releases/download/v${VERSION}/cri-containerd-cni-${VERSION}-linux-amd64.tar.gz
```

1.2 整理压缩文件

下载后的文件是一个tar.gz,是一个allinone的包,包括了runc、circtl、ctr、containerd等容器运行时以及cni相关的文件,解压缩到一个独立的目录中
```bash

解压缩

$ tar -xvf cri-containerd-cni-${VERSION}-linux-amd64.tar.gz

复制需要的文件

$ cp etc/crictl.yaml /etc/
$ cp etc/systemd/system/containerd.service /etc/systemd/system/
$ cp -r usr /
```

1.3 containerd配置文件

```bash
$ mkdir -p /etc/containerd

默认配置生成配置文件

$ containerd config default > /etc/containerd/config.toml

定制化配置(可选)

$ vi /etc/containerd/config.toml
```

1.4 启动containerd

```bash
$ systemctl enable containerd
$ systemctl restart containerd

检查状态

$ systemctl status containerd
```

2. 配置kubelet

准备kubelet配置

```bash
$ mkdir -p /etc/kubernetes/ssl/
$ mv ${HOSTNAME}-key.pem ${HOSTNAME}.pem ca.pem ca-key.pem /etc/kubernetes/ssl/
$ mv ${HOSTNAME}.kubeconfig /etc/kubernetes/kubeconfig
$ IP=10.155.19.64

写入kubelet配置文件

$ cat < /etc/kubernetes/kubelet-config.yaml
kind: KubeletConfiguration
apiVersion: kubelet.config.k8s.io/v1beta1
authentication:
anonymous:
enabled: false
webhook:
enabled: true
x509:
clientCAFile: "/etc/kubernetes/ssl/ca.pem"
authorization:
mode: Webhook
clusterDomain: "cluster.local"
clusterDNS:

  • "169.254.25.10"
    podCIDR: "10.200.0.0/16"
    address: ${IP}
    readOnlyPort: 0
    staticPodPath: /etc/kubernetes/manifests
    healthzPort: 10248
    healthzBindAddress: 127.0.0.1
    kubeletCgroups: /systemd/system.slice
    resolvConf: "/etc/resolv.conf"
    runtimeRequestTimeout: "15m"
    kubeReserved:
    cpu: 200m
    memory: 512M
    tlsCertFile: "/etc/kubernetes/ssl/${HOSTNAME}.pem"
    tlsPrivateKeyFile: "/etc/kubernetes/ssl/${HOSTNAME}-key.pem"
    EOF
    ```
配置kubelet服务

```bash
$ cat < /etc/systemd/system/kubelet.service
[Unit]
Description=Kubernetes Kubelet
Documentation=https://github.com/kubernetes/kubernetes
After=containerd.service
Requires=containerd.service

[Service]
ExecStart=/usr/local/bin/kubelet \\
--config=/etc/kubernetes/kubelet-config.yaml \\
--container-runtime=remote \\
--container-runtime-endpoint=unix:///var/run/containerd/containerd.sock \\
--image-pull-progress-deadline=2m \\
--kubeconfig=/etc/kubernetes/kubeconfig \\
--network-plugin=cni \\
--node-ip=${IP} \\
--register-node=true \\
--v=2
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF
```

3. 配置nginx-proxy

nginx-proxy是一个用于worker节点访问apiserver的一个代理,是apiserver一个优雅的高可用方案,它使用kubelet的staticpod方式启动,让每个节点都可以均衡的访问到每个apiserver服务,优雅的替代了通过虚拟ip访问apiserver的方式。

Tips: nginx-proxy 只需要在没有 apiserver 的节点部署哦~

3.1 nginx配置文件

```bash
$ mkdir -p /etc/nginx

master ip列表

$ MASTER_IPS=(10.155.19.223 10.155.19.64)

执行前请先copy一份,并修改好upstream的 'server' 部分配置

$ cat < /etc/nginx/nginx.conf
error_log stderr notice;

worker_processes 2;
worker_rlimit_nofile 130048;
worker_shutdown_timeout 10s;

events {
multi_accept on;
use epoll;
worker_connections 16384;
}

stream {
upstream kube_apiserver {
least_conn;
server ${MASTER_IPS[0]}:6443;
server ${MASTER_IPS[1]}:6443;

server ${MASTER_IPS[N]}:6443;
}

server {
listen 127.0.0.1:6443;
proxy_pass kube_apiserver;
proxy_timeout 10m;
proxy_connect_timeout 1s;
}
}

http {
aio threads;
aio_write on;
tcp_nopush on;
tcp_nodelay on;

keepalive_timeout 5m;
keepalive_requests 100;
reset_timedout_connection on;
server_tokens off;
autoindex off;

server {
listen 8081;
location /healthz {
access_log off;
return 200;
}
location /stub_status {
stub_status on;
access_log off;
}
}
}
EOF
```

3.2 nginx manifest

```bash
$ mkdir -p /etc/kubernetes/manifests/
$ cat < /etc/kubernetes/manifests/nginx-proxy.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx-proxy
namespace: kube-system
labels:
addonmanager.kubernetes.io/mode: Reconcile
k8s-app: kube-nginx
spec:
hostNetwork: true
dnsPolicy: ClusterFirstWithHostNet
nodeSelector:
kubernetes.io/os: linux
priorityClassName: system-node-critical
containers:

  • name: nginx-proxy image: docker.io/library/nginx:1.19 imagePullPolicy: IfNotPresent resources: requests: cpu: 25m memory: 32M securityContext: privileged: true livenessProbe: httpGet: path: /healthz port: 8081 readinessProbe: httpGet: path: /healthz port: 8081 volumeMounts:
    • mountPath: /etc/nginx
      name: etc-nginx
      readOnly: true
      volumes:
  • name: etc-nginx
    hostPath:
    path: /etc/nginx
    EOF
    ```

4. 配置kube-proxy

4.1 配置文件

```bash
$ mv kube-proxy.kubeconfig /etc/kubernetes/

创建 kube-proxy-config.yaml

$ cat < /etc/kubernetes/kube-proxy-config.yaml
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
bindAddress: 0.0.0.0
clientConnection:
kubeconfig: "/etc/kubernetes/kube-proxy.kubeconfig"
clusterCIDR: "10.200.0.0/16"
mode: ipvs
EOF
```

4.2 kube-proxy 服务文件

```bash
$ cat < /etc/systemd/system/kube-proxy.service
[Unit]
Description=Kubernetes Kube Proxy
Documentation=https://github.com/kubernetes/kubernetes

[Service]
ExecStart=/usr/local/bin/kube-proxy \\
--config=/etc/kubernetes/kube-proxy-config.yaml
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF
```

5. 启动服务

```bash
$ systemctl daemon-reload
$ systemctl enable kubelet kube-proxy
$ systemctl restart kubelet kube-proxy
$ journalctl -f -u kubelet
$ journalctl -f -u kube-proxy
```

6. 手动下载镜像(服务器无法访问外网情况)

在每个工作节点下载pause镜像
```bash
$ crictl pull registry.cn-hangzhou.aliyuncs.com/kubernetes-kubespray/pause:3.2
$ ctr -n k8s.io i tag registry.cn-hangzhou.aliyuncs.com/kubernetes-kubespray/pause:3.2 k8s.gcr.io/pause:3.2
```

部署kubernetes工作节点

# 七、网络插件-Calico
这部分我们部署kubernetes的网络查件 CNI。

文档地址:https://docs.projectcalico.org/getting-started/kubernetes/self-managed-onprem/onpremises

1. 下载文件说明

文档中有两个配置,50以下节点和50以上节点,它们的主要区别在于这个:typha。
当节点数比较多的情况下,Calico 的 Felix组件可通过 Typha 直接和 Etcd 进行数据交互,不通过 kube-apiserver,降低kube-apiserver的压力。大家根据自己的实际情况选择下载。
下载后的文件是一个all-in-one的yaml文件,我们只需要在此基础上做少许修改即可。

2. 修改IP自动发现

当kubelet的启动参数中存在--node-ip的时候,以host-network模式启动的pod的status.hostIP字段就会自动填入kubelet中指定的ip地址。

修改前:
```bash

  • name: IP
    value: "autodetect"
    ```
    修改后:
    ```bash
  • name: IP
    valueFrom:
    fieldRef:
    fieldPath: status.hostIP
    ```

3. 修改 CIDR

修改前:
```bash

- name: CALICO_IPV4POOL_CIDR

value: "192.168.0.0/16"

```
修改后(修改成你自己的value哦,我这里是10.200.0.0/16)
```bash

  • name: CALICO_IPV4POOL_CIDR
    value: "10.200.0.0/16"
    ```

网络插件calico

# 八、DNS插件-CoreDNS
这部分我们部署kubernetes的DNS插件 - CoreDNS。

在早期的版本中dns组件以pod形式独立运行,为集群提供dns服务,所有的pod都会请求同一个dns服务。
从kubernetes 1.18版本开始NodeLocal DnsCache功能进入stable状态。
NodeLocal DNSCache通过daemon-set的形式运行在每个工作节点,作为节点上pod的dns缓存代理,从而避免了iptables的DNAT规则和connection tracking。极大提升了dns的性能。

1. 部署CoreDNS

```bash

设置 coredns 的 cluster-ip

$ COREDNS_CLUSTER_IP=10.233.0.10

下载coredns配置all-in-one(addons/coredns.yaml)

替换cluster-ip

$ sed -i "s/\${COREDNS_CLUSTER_IP}/${COREDNS_CLUSTER_IP}/g" coredns.yaml

创建 coredns

$ kubectl apply -f coredns.yaml
```

2. 部署NodeLocal DNSCache

```bash

设置 coredns 的 cluster-ip

$ COREDNS_CLUSTER_IP=10.233.0.10

下载nodelocaldns配置all-in-one(addons/nodelocaldns.yaml)

替换cluster-ip

$

创建 nodelocaldns

$ kubectl apply -f nodelocaldns.yaml
```

官方文档地址

**coredns官方文档**:https://coredns.io/plugins/kubernetes/
**NodeLocal DNSCache**:https://kubernetes.io/docs/tasks/administer-cluster/nodelocaldns/

dns插件CoreDns

# 九、集群冒烟测试

1. 创建nginx ds

```bash
# 写入配置
$ cat > nginx-ds.yml <<EOF
apiVersion: v1
kind: Service
metadata:
name: nginx-ds
labels:
app: nginx-ds
spec:
type: NodePort
selector:
app: nginx-ds
ports:

  • name: http
    port: 80

targetPort: 80

apiVersion: apps/v1
kind: DaemonSet
metadata:
name: nginx-ds
spec:
selector:
matchLabels:
app: nginx-ds
template:
metadata:
labels:
app: nginx-ds
spec:
containers:
- name: my-nginx
image: nginx:1.19
ports:
- containerPort: 80
EOF

创建ds

$ kubectl apply -f nginx-ds.yml

```

2. 检查各种ip连通性

```bash

检查各 Node 上的 Pod IP 连通性

$ kubectl get pods -o wide

在每个worker节点上ping pod ip

$ ping

检查service可达性

$ kubectl get svc

在每个worker节点上访问服务

$ curl :

在每个节点检查node-port可用性

$ curl :
```

3. 检查dns可用性

```bash

创建一个nginx pod

$ cat > pod-nginx.yaml <<EOF
apiVersion: v1
kind: Pod
metadata:
name: nginx
spec:
containers:

  • name: nginx image: docker.io/library/nginx:1.19 ports:
    • containerPort: 80
      EOF

创建pod

$ kubectl apply -f pod-nginx.yaml

进入pod,查看dns

$ kubectl exec nginx -it -- /bin/bash

查看dns配置

root@nginx:/# cat /etc/resolv.conf

查看名字是否可以正确解析

root@nginx:/# curl nginx-ds
```

4. 日志功能

测试使用kubectl查看pod的容器日志
```bash
$ kubectl get pods
$ kubectl logs
```

5. Exec功能

测试kubectl的exec功能
```bash
$ kubectl get pods -l app=nginx-ds
$ kubectl exec -it -- nginx -v
```

集群冒烟测试