基于calico部署k8s集群k8s-1.23.6

2024-08-28 17:04

本文主要是介绍基于calico部署k8s集群k8s-1.23.6,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、资源清单

主机名IP地址系统版本CPU内存
mn01192.168.242.130redhat 7.92C4GB
ln0192.168.242.131redhat 7.92C4GB
cn01192.168.242.129redhat 7.92C4GB

2、系统配置(所有节点都要进行)

1、安装所需软件

yum install vim net-tools wget lsof ipset ipvsadm iproute-tc -y

2、主机名解析
为了方便集群节点间的直接调用,在这个配置一下主机名解析,企业中推荐使用内部DNS服务器

# 添加如下内容
192.168.242.131 ln0
192.168.242.130 mn01
192.168.242.129 cn01

3、时间同步
kubernetes要求集群中的节点时间必须精确一直,这里使用chronyd服务从网络同步时间

企业中建议配置内部的会见同步服务器

# 启动chronyd服务
[root@mn01~]# systemctl start chronyd
[root@mn01~]# systemctl enable chronyd
[root@mn01~]# date

4、禁用iptable和firewalld服务(防火墙)
kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

# 1 关闭firewalld服务
[root@mn01~]# systemctl stop firewalld
[root@mn01~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@mn01~]# systemctl stop iptables
[root@mn01~]# systemctl disable iptables

5、禁用selinux
selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disable
# 注意修改完毕之后需要重启linux服务,直接reboot也行
SELINUX=disabled

6、禁用swap分区
swap分区指的是虚拟内存分区,它的作用是物理内存使用完,之后将磁盘空间虚拟成内存来使用,启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备,但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
vim /etc/fstab
注释掉 /dev/mapper/centos-swap swap
# /dev/mapper/centos-swap swap

7、修改linux的内核参数

# 修改linux的内核采纳数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1# 重新加载配置
[root@master ~]# sysctl -p
# 加载网桥过滤模块
[root@master ~]# modprobe br_netfilter
# 查看网桥过滤模块是否加载成功
[root@master ~]# lsmod | grep br_netfilter

8、配置ipvs功能
在Kubernetes中Service有两种带来模型,一种是基于iptables的,一种是基于ipvs的两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

# 1.安装ipset和ipvsadm
[root@mn01 ~]# yum install ipset ipvsadm -y
# 2.添加需要加载的模块写入脚本文件
[root@mn01~]# cat <<EOF> /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
# 3.为脚本添加执行权限
[root@mn01~]# chmod +x /etc/sysconfig/modules/ipvs.modules
# 4.执行脚本文件
[root@mn01~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
# 5.查看对应的模块是否加载成功
[root@mn01~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

3、安装docker(所有节点)

# 1、切换镜像源
[root@mn01~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo# 2、查看当前镜像源中支持的docker版本
[root@mn01~]# yum list docker-ce --showduplicates# 3、安装特定版本的docker-ce
# 必须制定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@mn01~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y# 4、添加一个配置文件
#Docker 在默认情况下使用Vgroup Driver为cgroupfs,而Kubernetes推荐使用systemd来替代cgroupfs
[root@mn01~]# mkdir /etc/docker
[root@mn01~]# cat <<EOF> /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://docker.m.daocloud.io","https://docker.1panel.live"]
}
EOF# 5、启动mn01
[root@master ~]# systemctl restart docker
[root@master ~]# systemctl enable docker

4、安装kubernets组件(所有节点)

# 1、由于kubernetes的镜像在国外,速度比较慢,这里切换成国内的镜像源
# 2、编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgchech=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpghttp://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg# 3、安装kubeadm、kubelet和kubectl
[root@master ~]# yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6# 4、配置kubelet的cgroup
#编辑/etc/sysconfig/kubelet, 添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"# 5、设置kubelet开机自启
[root@master ~]# systemctl enable kubelet

5、集群初始化配置(仅在主节点)

1、主节点初始化

kubeadm init --apiserver-advertise-address=192.168.242.130 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version=v1.23.6 --service-cidr=10.96.0.0/12 --pod-network-cidr=10.244.0.0/16

选项说明:
–image-repository:选择用于拉取镜像的镜像仓库(默认为“k8s.gcr.io” )
–kubernetes-version:选择特定的Kubernetes版本(默认为“stable-1”)
–service-cidr:为服务的VIP指定使用的IP地址范围(默认为“10.96.0.0/12”)
–pod-network-cidr:指定Pod网络的IP地址范围。如果设置,则将自动为每个节点分配CIDR。

2、初始化输出内容

Your Kubernetes control-plane has initialized successfully!To start using your cluster, you need to run the following as a regular user:mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/configAlternatively, if you are the root user, you can run:export KUBECONFIG=/etc/kubernetes/admin.confYou should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:https://kubernetes.io/docs/concepts/cluster-administration/addons/Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z         --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33

当你初始化完成会出现这些内容,这代表你的k8s-master01已经初始化成功
3、创建必要文件,在主节点

[root@mn01~]# mkdir -p $HOME/.kube
[root@mn01~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@mn01~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

4、下面的操作只需要在node节点上执行即可,加入集群

kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z         --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33

在master上查看节点信息

[root@mn01 k8s]# kubectl get nodes
NAME   STATUS       ROLES        AGE   VERSION
cn01   NotReady    <none>        22h   v1.23.6
ln0    NotReady    <none>        22h   v1.23.6
mn01   NotReady    <none>        22h   v1.23.6

#节点成功加入到节点,但是STATUS显示为NotReady状态,因为还未部署网络插件,集群之间还无法通信

5、部署calico网络插件,仅在主节点
calico网络插件部署

#下载calico.yaml文件
curl -O https://docs.tigera.io/archive/v3.25/manifests/calico.yaml#修改CIDR,添加图中内容,该yaml文件中默认CIDR为192.168.0.0/16,需要与初始化时kube-config.yaml中的配置一致
- name: CALICO_IPV4POOL_CIDRvalue: "10.244.0.0/16"#拉取镜像修改,因为calico.io是国外地址拉取较慢,直接去掉
sed -i 's#docker.io/##g' calico.yaml[root@k8s-master01 ~]# grep image calico.yaml image: calico/cni:v3.25.0imagePullPolicy: IfNotPresentimage: calico/cni:v3.25.0imagePullPolicy: IfNotPresentimage: calico/node:v3.25.0imagePullPolicy: IfNotPresentimage: calico/node:v3.25.0imagePullPolicy: IfNotPresentimage: calico/kube-controllers:v3.25.0imagePullPolicy: IfNotPresent#拉取calico镜像,所有节点都要执行
#注意这里踩了个坑,因为node v3.25.0下载不下来(docker pull下载不下来),所以我这里csdn下载了calico-image的镜像,然后所有节点都docker load -i calico-image.tar,给它手动load进来了。
docker pull calico/cni:v3.25.0
docker pull calico/node:v3.25.0
docker pull calico/kube-controllers:v3.25.0#部署
kubectl apply -f calico.yaml#查看集群状态
[root@k8s-master01 ~]# kubectl get nodes
NAME           STATUS   ROLES                  AGE    VERSION
k8s-master01   Ready    control-plane,master   106m   v1.23.6
k8s-node01     Ready    <none>                 105m   v1.23.6
k8s-node02     Ready    <none>                 85m    v1.23.6#查看kube-system中的pod运行情况
[root@k8s-master01 ~]# kubectl get pods -n kube-system
NAME                                     READY   STATUS    RESTARTS      AGE
calico-kube-controllers-cd8566cf-cw5bj   1/1     Running   4 (58m ago)   84m
calico-node-pfpc4                        1/1     Running   4 (58m ago)   90m
calico-node-qf8kn                        1/1     Running   8 (58m ago)   87m
calico-node-sbn8m                        1/1     Running   4 (58m ago)   90m
coredns-6d8c4cb4d-v9895                  1/1     Running   4 (58m ago)   84m
coredns-6d8c4cb4d-zfzrd                  1/1     Running   4 (58m ago)   84m
etcd-k8s-master01                        1/1     Running   4 (58m ago)   107m
kube-apiserver-k8s-master01              1/1     Running   4 (58m ago)   107m
kube-controller-manager-k8s-master01     1/1     Running   4 (58m ago)   107m
kube-proxy-fv6xc                         1/1     Running   4 (58m ago)   87m
kube-proxy-kqhdh                         1/1     Running   4 (58m ago)   107m
kube-proxy-rn6cc                         1/1     Running   4 (58m ago)   106m
kube-scheduler-k8s-master01              1/1     Running   4 (58m ago)   107m##部署成功!!!

这篇关于基于calico部署k8s集群k8s-1.23.6的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1115365

相关文章

Spring Boot项目部署命令java -jar的各种参数及作用详解

《SpringBoot项目部署命令java-jar的各种参数及作用详解》:本文主要介绍SpringBoot项目部署命令java-jar的各种参数及作用的相关资料,包括设置内存大小、垃圾回收... 目录前言一、基础命令结构二、常见的 Java 命令参数1. 设置内存大小2. 配置垃圾回收器3. 配置线程栈大小

Redis分片集群的实现

《Redis分片集群的实现》Redis分片集群是一种将Redis数据库分散到多个节点上的方式,以提供更高的性能和可伸缩性,本文主要介绍了Redis分片集群的实现,具有一定的参考价值,感兴趣的可以了解一... 目录1. Redis Cluster的核心概念哈希槽(Hash Slots)主从复制与故障转移2.

tomcat多实例部署的项目实践

《tomcat多实例部署的项目实践》Tomcat多实例是指在一台设备上运行多个Tomcat服务,这些Tomcat相互独立,本文主要介绍了tomcat多实例部署的项目实践,具有一定的参考价值,感兴趣的可... 目录1.创建项目目录,测试文China编程件2js.创建实例的安装目录3.准备实例的配置文件4.编辑实例的

SpringBoot配置Ollama实现本地部署DeepSeek

《SpringBoot配置Ollama实现本地部署DeepSeek》本文主要介绍了在本地环境中使用Ollama配置DeepSeek模型,并在IntelliJIDEA中创建一个Sprin... 目录前言详细步骤一、本地配置DeepSeek二、SpringBoot项目调用本地DeepSeek前言随着人工智能技

通过Docker Compose部署MySQL的详细教程

《通过DockerCompose部署MySQL的详细教程》DockerCompose作为Docker官方的容器编排工具,为MySQL数据库部署带来了显著优势,下面小编就来为大家详细介绍一... 目录一、docker Compose 部署 mysql 的优势二、环境准备与基础配置2.1 项目目录结构2.2 基

CentOS 7部署主域名服务器 DNS的方法

《CentOS7部署主域名服务器DNS的方法》文章详细介绍了在CentOS7上部署主域名服务器DNS的步骤,包括安装BIND服务、配置DNS服务、添加域名区域、创建区域文件、配置反向解析、检查配置... 目录1. 安装 BIND 服务和工具2.  配置 BIND 服务3 . 添加你的域名区域配置4.创建区域

OpenManus本地部署实战亲测有效完全免费(最新推荐)

《OpenManus本地部署实战亲测有效完全免费(最新推荐)》文章介绍了如何在本地部署OpenManus大语言模型,包括环境搭建、LLM编程接口配置和测试步骤,本文给大家讲解的非常详细,感兴趣的朋友一... 目录1.概况2.环境搭建2.1安装miniconda或者anaconda2.2 LLM编程接口配置2

大数据spark3.5安装部署之local模式详解

《大数据spark3.5安装部署之local模式详解》本文介绍了如何在本地模式下安装和配置Spark,并展示了如何使用SparkShell进行基本的数据处理操作,同时,还介绍了如何通过Spark-su... 目录下载上传解压配置jdk解压配置环境变量启动查看交互操作命令行提交应用spark,一个数据处理框架

Go 1.23中Timer无buffer的实现方式详解

《Go1.23中Timer无buffer的实现方式详解》在Go1.23中,Timer的实现通常是通过time包提供的time.Timer类型来实现的,本文主要介绍了Go1.23中Timer无buff... 目录Timer 的基本实现无缓冲区的实现自定义无缓冲 Timer 实现更复杂的 Timer 实现总结在

如何使用Docker部署FTP和Nginx并通过HTTP访问FTP里的文件

《如何使用Docker部署FTP和Nginx并通过HTTP访问FTP里的文件》本文介绍了如何使用Docker部署FTP服务器和Nginx,并通过HTTP访问FTP中的文件,通过将FTP数据目录挂载到N... 目录docker部署FTP和Nginx并通过HTTP访问FTP里的文件1. 部署 FTP 服务器 (