k8s-基础篇
阅读原文时间:2022年02月06日阅读:1

搭建k8s环境

Myapp镜像部署
扩容pod
自愈
负载均衡
DNS
外网访问
滚动更新
YAML方式部署
独立部署pod
RS副本控制器
Deployment-自动扩容
Deployment-更新版本
Deployment-回滚版本
daemonset
job
cronJob

初始化容器

链接:https://pan.baidu.com/s/1U_AWBEXsjESZ2eDPIH4TFA
提取码:gmze

网盘里有一些配置文件和系统组件可以自行下载使用。环境搭建很麻烦,如果发现失败可与我联系或按照文档重试几次。以下步骤是完全可用的!

搭建k8s环境

环境3台centos虚拟机每台虚拟机2核2G,一个master两个node。搭建k8s环境如没有特殊说明所有操作均在三个节点同时操作。

#1、给每一台机器设置主机名

hostnamectl set-hostname k8s-master01

hostnamectl set-hostname k8s-node01

hostnamectl set-hostname k8s-node02

#查看主机名

hostname

#配置IP host映射关系

vi /etc/hosts

192.168.66.10 k8s-master01

192.168.66.11 k8s-node01

192.168.66.12 k8s-node02

#2、安装依赖环境,注意:每一台机器都需要安装此依赖环境

yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat

libseccomp wget vim net-tools git iproute lrzsz bash-completion tree bridge-

utils unzip bind-utils gcc

#3、安装iptables,启动iptables,设置开机自启,清空iptables规则,保存当前规则到默认规则

# 关闭防火墙

systemctl stop firewalld && systemctl disable firewalld

# 置空iptables

yum -y install iptables-services && systemctl start iptables && systemctl enable

iptables && iptables -F && service iptables save

#4、关闭selinux

#闭swap分区【虚拟内存】并且永久关闭虚拟内存

swapoff -a && sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab

#关闭selinux

setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config

#5、调整内核参数,对于k8s

cat > kubernetes.conf <<EOF

net.bridge.bridge-nf-call-iptables=1

net.bridge.bridge-nf-call-ip6tables=1

net.ipv4.ip_forward=1

net.ipv4.tcp_tw_recycle=0

vm.swappiness=0

vm.overcommit_memory=1

vm.panic_on_oom=0

fs.inotify.max_user_instances=8192

fs.inotify.max_user_watches=1048576

fs.file-max=52706963

fs.nr_open=52706963

net.ipv6.conf.all.disable_ipv6=1

net.netfilter.nf_conntrack_max=2310720

EOF

#将优化内核文件拷贝到/etc/sysctl.d/文件夹下,这样优化文件开机的时候能够被调用

cp kubernetes.conf /etc/sysctl.d/kubernetes.conf

#手动刷新,让优化文件立即生效

sysctl -p /etc/sysctl.d/kubernetes.conf

#6、调整系统临时区 --- 如果已经设置时区,可略过

#设置系统时区为中国/上海

timedatectl set-timezone Asia/Shanghai

#将当前的 UTC 时间写入硬件时钟

timedatectl set-local-rtc 0

#重启依赖于系统时间的服务

systemctl restart rsyslog

systemctl restart crond

#7、关闭系统不需要的服务

systemctl stop postfix && systemctl disable postfix

#8、设置日志保存方式

#1).创建保存日志的目录

mkdir /var/log/journal

#2).创建配置文件存放目录

mkdir /etc/systemd/journald.conf.d

#3).创建配置文件

cat > /etc/systemd/journald.conf.d/99-prophet.conf <<EOF

[Journal]

Storage=persistent

Compress=yes

SyncIntervalSec=5m

RateLimitInterval=30s

RateLimitBurst=1000

SystemMaxUse=10G

SystemMaxFileSize=200M

MaxRetentionSec=2week

ForwardToSyslog=no

EOF

#4).重启systemd journald的配置

systemctl restart systemd-journald

#9、kube-proxy 开启 ipvs 前置条件

modprobe br_netfilter

cat > /etc/sysconfig/modules/ipvs.modules <<EOF

#!/bin/bash

modprobe -- ip_vs

modprobe -- ip_vs_rr

modprobe -- ip_vs_wrr

modprobe -- ip_vs_sh

modprobe -- nf_conntrack_ipv4

EOF

##使用lsmod命令查看这些文件是否被引导

chmod 755 /etc/sysconfig/modules/ipvs.modules && bash

/etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e

nf_conntrack_ipv4

curl -sSL https://get.daocloud.io/docker | sh

systemctl enable docker && systemctl start docker

#1、安装kubernetes的时候,需要安装kubelet, kubeadm等包,但k8s官网给的yum源是

packages.cloud.google.com,国内访问不了,此时我们可以使用阿里云的yum仓库镜像。

cat < /etc/yum.repos.d/kubernetes.repo

[kubernetes]

name=Kubernetes

baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64

enabled=1

gpgcheck=0

repo_gpgcheck=0

gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg

http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

EOF

#2、安装kubeadm、kubelet、kubectl

yum install -y kubeadm-1.15.1 kubelet-1.15.1 kubectl-1.15.1

# 启动 kubelet

systemctl enable kubelet && systemctl start kubelet

网盘中有镜像文件kubeadm-basic.images

#1、导入镜像脚本代码 (在任意目录下创建sh脚本文件:image-load.sh)

#!/bin/bash

#注意 镜像解压的目录位置

ls /root/kubeadm-basic.images > /tmp/images-list.txt

cd /root/kubeadm-basic.images

for i in $(cat /tmp/images-list.txt)

do

docker load -i $i

done

rm -rf /tmp/images-list.txt

#2、修改权限,可执行权限

chmod 755 image-load.sh

#3、开始执行,镜像导入

./image-load.sh

#初始化主节点 --- 只需要在主节点执行

#1、拉去yaml资源配置文件

kubeadm config print init-defaults > kubeadm-config.yaml 

#2、修改yaml资源文件

localAPIEndpoint:

advertiseAddress: 192.168.66.10 # 注意:修改配置文件的IP地址

kubernetesVersion: v1.15.1 #注意:修改版本号,必须和kubectl版本保持一致

networking:

# 指定flannel模型通信 pod网段地址,此网段和flannel网段一致

podSubnet: "10.244.0.0/16"

serviceSubnet: "10.96.0.0/12"

#指定使用ipvs网络进行通信

---

apiVersion: kubeproxy.config.k8s.io/v1alpha1

kind: kubeProxyConfiguration

featureGates:

SupportIPVSProxyMode: true

mode: ipvs

#3、初始化主节点,开始部署

kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs | tee

kubeadm-init.log

#注意:执行此命令,CPU核心数量必须大于1核,否则无法执行成功

#4、初始化成功后执行如下命令

#创建目录,保存连接配置缓存,认证文件

mkdir -p $HOME/.kube

#拷贝集群管理配置文件

cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

#授权给配置文件

chown $(id -u):$(id -g) $HOME/.kube/config 

#部署flannel网络插件 --- 只需要在主节点执行

#1、下载flannel网络插件

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-

flannel.yml

#2、部署flannel

kubectl create -f kube-flannel.yml 

节点加入需要token和sha256,在主节点上执行以下命令获取。

创建token

kubeadm token create

m9rrtc.2cm48k5w6ymsprwt

查看token可能有多个,选择一个没有过期的即可

kubeadm token list

获取 CA 证书 sha256 编码 hash 值

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

4a77cfd6f9e2a16a7a45351369275f102b9986b469d3f9f9865a87050e4bf0dc

在子节点执行以下命令

kubeadm join 主机IP:6443 --token 59mzkj.26xap2hzdhm74ptq --discovery-token-ca-cert-hash sha256:18acdb7c02c6ea696307fde451f44ea0d216e6ccb6777a2a87002d7d45f3845c

在主节点查看。我这里node2虚拟机关闭了,电脑不行。正常情况下都是Ready

注意:如果master或node节点的ip变化了。

kubeadm reset 重置节点

master则重复k8s部署和flflannel插件两个步骤。

node则重复节点join步骤

Myapp镜像部署

需要在master和node上配置docker镜像。

https://cr.console.aliyun.com/cn-hangzhou/instances/mirrors?accounttraceid=0cd89c7411274ee48cb11fad06368ba3fxyw

创建pod(部署服务) : kubectl run myapp --image=ikubernetes/myapp:v1 --port=80 --replicas=2 (replicas指定pod数量默认1)

查询pod创建详细信息: kubectl describe pod myapp-554864fdf4-f4gw9

查询pod: kubectl get pod

查询pod详细信息: kubectl get pod -o

Kubectl run 首先创建deployment对象,kubectl run 指令执行后创建了3个资源对象(deployment,rs,pod)

注意: 上面这条指令没有指定副本数量,默认创建了1个pod。如果只有master节点则创建失败,至少有一个node

如果要删除彻底删除pod需要先删除deployment,然后pod会自动删除。

kubectl delete deployment myapp

扩容pod

kubectl scale deployment myapp --replicas=4

也可以再次缩容

自愈

K8s管理的pod不仅仅可以一键式部署,一键式扩容,同时k8s管理的pod还具有自愈能力。也就是说当pod发生故障,宕机,k8s将会自动对pod件重建,因此k8s的pod的副本永远处于高可用状态。

删除所有的pod,查看pod是否还存在: kubectl delete pod –all

负载均衡

Pod有多个副本,访问pod副本必须实现负载均衡访问,那么这个负载均衡访问是通过service来实现的。因此对一组pod副本创建一个service,进行负载均衡

对一组pod副本创建service: kubectl expose deployment myapp --port=30000 --target-port=80

kubectl get svc

通过测试发现,k8s默认使用轮训策略。

kubectl delete svc/myapp 删除service

DNS

安装k8s时候,安装dns组件,dns(域名解析服务器,根据域名解析出真实ip地址,通过dns可以通过服务名进行相互的访问)

在容器内部通过服务名访问其他容器

kubectl exec -it myapp-554864fdf4-wsr7h -- sh

wget myapp:30000(service名称) --- 测试通过,说明可以通过服务名称,访问到外部网络,因此dns服务器是ok的。

外网访问

Service 和pod 之间的通信都属于局域网通信访问。无法对外网直接提供服务,service是一个虚拟化的概念,是一个虚拟IP地址,没有与之对应的物理硬件资料,无法直接对外网提供服务,必须借助于物理硬件资源进行数据包转发。

kubectl edit svc myapp  --- 编辑service对应资源对象配置文件,通过修改ip类型,来绑定物理端口。

可以发现32727就是我们所开辟物理端口,此端口可以在配置文件中自定义,也可以默认即可,默认端口范围:30000 – 32767

滚动更新

项目迭代,不停的发布新的版本,如何实现不停机更新。一键式更新操作.滚动更新,发现访问时候,已经是v2版本的服务.原来的pod开始没有关闭

等到新版本的pod发布后才把老版本删除。

YAML方式部署

通过yaml配置文件方式一键部署服务。yaml的详细配置在网盘连接里有。YAML语法规范.md

现在我们要部署一个Nginx服务,先拉去一个docker镜像,其实可以让k8s自己下载,但是我要给Nginx打一个tag

docker pull nginx

编写yaml文件在网盘链接中有

apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-deployment
namespace: default
spec:
replicas: 2
selector:
matchLabels:
app: mynginx
release: stable
env: test
template:
metadata:
labels:
app: mynginx
release: stable
env: test
spec:
containers:
- name: my-nginx
image: nginx:v1
imagePullPolicy: IfNotPresent
ports:
- name: http
containerPort: 80

kubectl apply -f nginx-deploy.yaml 执行脚本

编写service.yaml

apiVersion: v1
kind: Service
metadata:
name: nginx-svc
namespace: default
spec:
type: NodePort
selector:
app: mynginx
release: stable
env: test
ports:

  • name: http
    port: 80
    targetPort: 80
    nodePort: 30003

独立部署pod

自主式的pod: 单独定义一个pod,这个没有没有副本控制器管理,也没有对应deployment,可以直接删除pod并且不会自愈。

apiVersion: v1
kind: Pod
metadata:
name: init-pod
labels:
app: myapp
spec:
containers:

  • name: myapp
    image: ikubernetes/myapp:v1

kubectl apply -f init-pod.yaml 执行脚本

RS副本控制器

ReplicationController (RC)用来确保容器应用的副本数始终保持在用户定义的副本数,即如果有容器异常退出,会自动创建新的Pod来替代;而如果异常多出来的容器也会自动回收;

在新版本的Kubernetes中建议使用Replicaset来取代ReplicationController. ReplicaSet跟 ReplicationController没有本质的不同,只是名字不一样,并且ReplicaSet支持集合式的selector;

apiVersion: extensions/v1beta1
kind: ReplicaSet
metadata:
name: frontend
spec:
replicas: 3
selector:
matchLabels:
tier: frontend
template:
metadata:
labels:
tier: frontend
spec:
containers:
- name: myapp
image: ikubernetes/myapp:v1

pod删除后可以自愈

修改pod的标签后pod就会脱离RS而RS也会重新生成一个pod

删除副本控制器后pod也会删除

Deployment-自动扩容

Deployment可以保证在升级时只有一定数量的Pod是down的。默认的,它会确保至少有比期望的Pod数量少一个是up状态(最多一个不可用)

Deployment同时也可以确保只创建出超过期望数量的一定数量的Pod,默认的,它会确保最多比期望的Pod数量多一个的Pod是up的(最多1个surge )

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nginx-deployment
spec:
replicas: 3
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: myapp
image: ikubernetes/myapp:v1

kubectl autoscale deployment nginx-deployment --min=2 --max=5 --cpu-percent=80

这条指令是说最少两个pod最多5个单个pod的cpu使用率达到80则创建副本。

Deployment-更新版本

kubectl set image deployment appdeployment(deployment名称) nginx(container名称)=ikubernetes/myapp:v2(要更新的镜像)

Deployment-回滚版本

kubectl rollout undo deployment appdeployment(deployment名称)

daemonset

确保只运行一个副本,运行在集群中每一个节点上。而deployment可能只将pod运行在一个节点上。daemonset没有RS

apiVersion: apps/v1
kind: DaemonSet
metadata:
name: my-deamon
namespace: default
labels:
app: daemonset
spec:
selector:
matchLabels:
app: my-daemonset
template:
metadata:
labels:
app: my-daemonset
spec:
containers:
- name: myapp
image: ikubernetes/myapp:v1

job

job负责处理任务,即仅执行一次的任务,下面这个job从仓库拉去一个镜像,执行一个循环打印。

apiVersion: batch/v1
kind: Job
metadata:
name: job-demo
spec:
template:
metadata:
name: job-demo
spec:
restartPolicy: Never
containers:
- name: counter
image: busybox
command:
- "bin/sh"
- "-c"
- "for i in 9 8 7 6 5 4 3 2 1; do echo $i; done"

cronJob

cronJob其实就是在`Job`的基础上加上了时间调度,我们可以:在给定的时间点运行一个任务,也可以周期性地在给定时间点运行。

以下配置是1分钟创建一个job执行

apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: cronjob-demo
spec:
schedule: "*/1 * * * *"
jobTemplate:
spec:
template:
spec:
restartPolicy: OnFailure
containers:
- name: hello
image: busybox
args:
- "bin/sh"
- "-c"
- "for i in 9 8 7 6 5 4 3 2 1; do echo $i; done"

初始化容器

Pod能够持有多个容器,应用运行在容器里面,但是它也可能有一个或多个先于应用容器启动的Init容器。Init容器与普通的容器非常像,除了如下两点:1 Init容器总是运行到成功完成为止 2 每个Init容器都必须在下一个Init容器启动之前成功完成

如果Pod的Init容器失败,Kubernetes会不断地重启该Pod,直到Init容器成功为止。然而,如果Pod对应的restartPolicy为Never,它不会重新启动。

以下配置为初始化容器休眠2分钟后创建。然后应用容器才会创建

apiVersion: v1
kind: Pod
metadata:
name: init-pod
labels:
app: myapp
spec:
containers:

  • name: myapp
    image: nginx
    initContainers:
  • name: init-mydb
    image: nginx
    command: ['sh', '-c', 'echo -n "running at " && date +%T && sleep 120']