基于calico部署k8s集群k8s-1.23.6

2024-08-28 17:04

本文主要是介绍基于calico部署k8s集群k8s-1.23.6,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1、资源清单

主机名IP地址系统版本CPU内存
mn01192.168.242.130redhat 7.92C4GB
ln0192.168.242.131redhat 7.92C4GB
cn01192.168.242.129redhat 7.92C4GB

2、系统配置(所有节点都要进行)

1、安装所需软件

yum install vim net-tools wget lsof ipset ipvsadm iproute-tc -y

2、主机名解析
为了方便集群节点间的直接调用,在这个配置一下主机名解析,企业中推荐使用内部DNS服务器

# 添加如下内容
192.168.242.131 ln0
192.168.242.130 mn01
192.168.242.129 cn01

3、时间同步
kubernetes要求集群中的节点时间必须精确一直,这里使用chronyd服务从网络同步时间

企业中建议配置内部的会见同步服务器

# 启动chronyd服务
[root@mn01~]# systemctl start chronyd
[root@mn01~]# systemctl enable chronyd
[root@mn01~]# date

4、禁用iptable和firewalld服务(防火墙)
kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

# 1 关闭firewalld服务
[root@mn01~]# systemctl stop firewalld
[root@mn01~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@mn01~]# systemctl stop iptables
[root@mn01~]# systemctl disable iptables

5、禁用selinux
selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disable
# 注意修改完毕之后需要重启linux服务,直接reboot也行
SELINUX=disabled

6、禁用swap分区
swap分区指的是虚拟内存分区,它的作用是物理内存使用完,之后将磁盘空间虚拟成内存来使用,启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备,但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
vim /etc/fstab
注释掉 /dev/mapper/centos-swap swap
# /dev/mapper/centos-swap swap

7、修改linux的内核参数

# 修改linux的内核采纳数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1# 重新加载配置
[root@master ~]# sysctl -p
# 加载网桥过滤模块
[root@master ~]# modprobe br_netfilter
# 查看网桥过滤模块是否加载成功
[root@master ~]# lsmod | grep br_netfilter

8、配置ipvs功能
在Kubernetes中Service有两种带来模型,一种是基于iptables的,一种是基于ipvs的两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

# 1.安装ipset和ipvsadm
[root@mn01 ~]# yum install ipset ipvsadm -y
# 2.添加需要加载的模块写入脚本文件
[root@mn01~]# cat <<EOF> /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
# 3.为脚本添加执行权限
[root@mn01~]# chmod +x /etc/sysconfig/modules/ipvs.modules
# 4.执行脚本文件
[root@mn01~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
# 5.查看对应的模块是否加载成功
[root@mn01~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

3、安装docker(所有节点)

# 1、切换镜像源
[root@mn01~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo# 2、查看当前镜像源中支持的docker版本
[root@mn01~]# yum list docker-ce --showduplicates# 3、安装特定版本的docker-ce
# 必须制定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@mn01~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y# 4、添加一个配置文件
#Docker 在默认情况下使用Vgroup Driver为cgroupfs,而Kubernetes推荐使用systemd来替代cgroupfs
[root@mn01~]# mkdir /etc/docker
[root@mn01~]# cat <<EOF> /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://docker.m.daocloud.io","https://docker.1panel.live"]
}
EOF# 5、启动mn01
[root@master ~]# systemctl restart docker
[root@master ~]# systemctl enable docker

4、安装kubernets组件(所有节点)

# 1、由于kubernetes的镜像在国外,速度比较慢,这里切换成国内的镜像源
# 2、编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgchech=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpghttp://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg# 3、安装kubeadm、kubelet和kubectl
[root@master ~]# yum install -y kubelet-1.23.6 kubeadm-1.23.6 kubectl-1.23.6# 4、配置kubelet的cgroup
#编辑/etc/sysconfig/kubelet, 添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"# 5、设置kubelet开机自启
[root@master ~]# systemctl enable kubelet

5、集群初始化配置(仅在主节点)

1、主节点初始化

kubeadm init --apiserver-advertise-address=192.168.242.130 --image-repository registry.aliyuncs.com/google_containers --kubernetes-version=v1.23.6 --service-cidr=10.96.0.0/12 --pod-network-cidr=10.244.0.0/16

选项说明:
–image-repository:选择用于拉取镜像的镜像仓库(默认为“k8s.gcr.io” )
–kubernetes-version:选择特定的Kubernetes版本(默认为“stable-1”)
–service-cidr:为服务的VIP指定使用的IP地址范围(默认为“10.96.0.0/12”)
–pod-network-cidr:指定Pod网络的IP地址范围。如果设置,则将自动为每个节点分配CIDR。

2、初始化输出内容

Your Kubernetes control-plane has initialized successfully!To start using your cluster, you need to run the following as a regular user:mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/configAlternatively, if you are the root user, you can run:export KUBECONFIG=/etc/kubernetes/admin.confYou should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:https://kubernetes.io/docs/concepts/cluster-administration/addons/Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z         --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33

当你初始化完成会出现这些内容,这代表你的k8s-master01已经初始化成功
3、创建必要文件,在主节点

[root@mn01~]# mkdir -p $HOME/.kube
[root@mn01~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@mn01~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

4、下面的操作只需要在node节点上执行即可,加入集群

kubeadm join 192.168.242.130:6443 --token bzhjh5.0bnoup3cdpvau66z         --discovery-token-ca-cert-hash sha256:15d1cd5698c82f511887e860288d0fde523f310cff8a00586a145f84f7e66f33

在master上查看节点信息

[root@mn01 k8s]# kubectl get nodes
NAME   STATUS       ROLES        AGE   VERSION
cn01   NotReady    <none>        22h   v1.23.6
ln0    NotReady    <none>        22h   v1.23.6
mn01   NotReady    <none>        22h   v1.23.6

#节点成功加入到节点,但是STATUS显示为NotReady状态,因为还未部署网络插件,集群之间还无法通信

5、部署calico网络插件,仅在主节点
calico网络插件部署

#下载calico.yaml文件
curl -O https://docs.tigera.io/archive/v3.25/manifests/calico.yaml#修改CIDR,添加图中内容,该yaml文件中默认CIDR为192.168.0.0/16,需要与初始化时kube-config.yaml中的配置一致
- name: CALICO_IPV4POOL_CIDRvalue: "10.244.0.0/16"#拉取镜像修改,因为calico.io是国外地址拉取较慢,直接去掉
sed -i 's#docker.io/##g' calico.yaml[root@k8s-master01 ~]# grep image calico.yaml image: calico/cni:v3.25.0imagePullPolicy: IfNotPresentimage: calico/cni:v3.25.0imagePullPolicy: IfNotPresentimage: calico/node:v3.25.0imagePullPolicy: IfNotPresentimage: calico/node:v3.25.0imagePullPolicy: IfNotPresentimage: calico/kube-controllers:v3.25.0imagePullPolicy: IfNotPresent#拉取calico镜像,所有节点都要执行
#注意这里踩了个坑,因为node v3.25.0下载不下来(docker pull下载不下来),所以我这里csdn下载了calico-image的镜像,然后所有节点都docker load -i calico-image.tar,给它手动load进来了。
docker pull calico/cni:v3.25.0
docker pull calico/node:v3.25.0
docker pull calico/kube-controllers:v3.25.0#部署
kubectl apply -f calico.yaml#查看集群状态
[root@k8s-master01 ~]# kubectl get nodes
NAME           STATUS   ROLES                  AGE    VERSION
k8s-master01   Ready    control-plane,master   106m   v1.23.6
k8s-node01     Ready    <none>                 105m   v1.23.6
k8s-node02     Ready    <none>                 85m    v1.23.6#查看kube-system中的pod运行情况
[root@k8s-master01 ~]# kubectl get pods -n kube-system
NAME                                     READY   STATUS    RESTARTS      AGE
calico-kube-controllers-cd8566cf-cw5bj   1/1     Running   4 (58m ago)   84m
calico-node-pfpc4                        1/1     Running   4 (58m ago)   90m
calico-node-qf8kn                        1/1     Running   8 (58m ago)   87m
calico-node-sbn8m                        1/1     Running   4 (58m ago)   90m
coredns-6d8c4cb4d-v9895                  1/1     Running   4 (58m ago)   84m
coredns-6d8c4cb4d-zfzrd                  1/1     Running   4 (58m ago)   84m
etcd-k8s-master01                        1/1     Running   4 (58m ago)   107m
kube-apiserver-k8s-master01              1/1     Running   4 (58m ago)   107m
kube-controller-manager-k8s-master01     1/1     Running   4 (58m ago)   107m
kube-proxy-fv6xc                         1/1     Running   4 (58m ago)   87m
kube-proxy-kqhdh                         1/1     Running   4 (58m ago)   107m
kube-proxy-rn6cc                         1/1     Running   4 (58m ago)   106m
kube-scheduler-k8s-master01              1/1     Running   4 (58m ago)   107m##部署成功!!!

这篇关于基于calico部署k8s集群k8s-1.23.6的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1115365

相关文章

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

redis群集简单部署过程

《redis群集简单部署过程》文章介绍了Redis,一个高性能的键值存储系统,其支持多种数据结构和命令,它还讨论了Redis的服务器端架构、数据存储和获取、协议和命令、高可用性方案、缓存机制以及监控和... 目录Redis介绍1. 基本概念2. 服务器端3. 存储和获取数据4. 协议和命令5. 高可用性6.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

nginx部署https网站的实现步骤(亲测)

《nginx部署https网站的实现步骤(亲测)》本文详细介绍了使用Nginx在保持与http服务兼容的情况下部署HTTPS,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值... 目录步骤 1:安装 Nginx步骤 2:获取 SSL 证书步骤 3:手动配置 Nginx步骤 4:测

Tomcat高效部署与性能优化方式

《Tomcat高效部署与性能优化方式》本文介绍了如何高效部署Tomcat并进行性能优化,以确保Web应用的稳定运行和高效响应,高效部署包括环境准备、安装Tomcat、配置Tomcat、部署应用和启动T... 目录Tomcat高效部署与性能优化一、引言二、Tomcat高效部署三、Tomcat性能优化总结Tom

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee