四、K8s etcd相关操作

2024-04-27 15:18
文章标签 云原生 操作 k8s 相关 etcd

本文主要是介绍四、K8s etcd相关操作,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

概述:

etcd作为k8s的数据库(键值对形式),记录了用户的操作和数据,只要etcd保存完好,其他pods信息即可根据etcd记录的内容进行回复。在k8s集群初始化后,etcd默认就以pods的形式存在,可以使用命令kubectl get pods -n kube-system查看。

etcd集群是一个分布式系统,使用Raft协议来维护集群内各个节点状态的一致性。主机状态 Leader, Follower, Candidate。默认数据会发送到Leader(2379端口),然后Leader通过Raft协议(2380端口)同步到Follower。当集群初始化时候,每个节点都是Follower角色,通过心跳与其他节点同步数据,当Follower在一定时间内没有收到来自主节点的心跳,会将自己角色改变为Candidate,并发起一次选主投票。

配置etcd集群,建议尽可能是奇数个节点,而不要偶数个节点,否则在一定情况下可能会导致选举Leader出现故障,导致集群无法简历。

本笔记为了记录etcd的工作方式,于是单独设置了3台设备安装etcd,而不是在k8s集群中使用,拓扑如下:

在这里插入图片描述

一:配置单节点集群

步骤1:在etcd1上设置yum云和安装etcd

wget ftp://ftp.rhce.cc/k8s/* -P /etc/yum.repos.d/
yum install -y etcd

步骤2:修改etcd配置文件

cd /etc/etcd/
cp etcd.conf etcd.conf.bakvim etcd.conf

修改的位置为:增加监听自己与外网通信接口(192.168.0.204)。

ETCD_LISTEN_PEER_URLS="http://localhost:2380,http://192.168.0.204:2380"
ETCD_LISTEN_CLIENT_URLS="http://localhost:2379,http://192.168.0.204:2379"

开启etcd服务:

systemctl enable etcd --now

步骤3:查看etcd集群相关信息

查看集群里的etcd节点:

[root@vms204 etcd]# etcdctl member list
8e9e05c52164694d: name=default peerURLs=http://localhost:2380 clientURLs=http://192.168.0.204:2379,http://loca                           lhost:2379 isLeader=true

查看集群的健康状态:

[root@vms204 etcd]# etcdctl cluster-health
member 8e9e05c52164694d is healthy: got healthy result from http://localhost:2379
cluster is healthy

步骤4:配置远程etcd访问

etcdctl是etcd的客户端工具,不仅可以在本机上查看信息,也可以远程到集群的其他节点查看。

首先需要在etcd1上修改配置文件,允许远程访问:

vim /etc/etcd/etcd.conf

修改内容如下:

ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379,http://192.168.0.204:2379"

重启etcd服务:

systemctl restart etcd

在etcd2上以同样的方式安装etcd,并执行如下的命令连接到etcd1上,并查看能够执行哪些操作:

etcdctl --endpoints http://192.168.0.204:2379 --help

默认etcdctl使用的是版本2来管理etcd,可以通过设置环境变量的方式,指定使用版本3来管理etcd,功能更加丰富,在etcd1和etcd2节点上:

export ETCDCTL_API=3

设置后再执行,则可以看到更多的操作:

etcdctl --endpoints http://192.168.0.204:2379 --help

如果需要取消环境变量设置,可以使用如下命令:

unset ETCDCTL_API

步骤5:向etcd内写数据,并查看

在etcd1上(etcd2上远程也可以,主要保证etcd1和etcd2上的版本一致,两个版本不可混用):设置键为name1,值为xxxx

[root@vms204 etcd]# etcdctl put name1 xxxx
OK
[root@vms204 etcd]# etcdctl get name1
name1
xxxx

二:配置双节点集群

步骤1:删除掉etcd1现有的集群,并删除数据

systemctl stop etcd
rm -rf /var/lib/etcd/*

步骤2:修改etcd1和etcd2的配置文件

etcd1:

ETCD_DATA_DIR="/var/lib/etcd/cluster.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.0.204:2380,http://localhost:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.204:2379,http://localhost:2379"
ETCD_NAME="etcd-204"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.204:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379,http://192.168.0.204:2379"
ETCD_INITIAL_CLUSTER="etcd-204=http://192.168.0.204:2380,etcd-205=http://192.168.0.205:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"

其中,ETCD_DATA_DIR定义了数据存放位置;ETCD_INITIAL_CLUSTER设置了集群中的节点数量;ETCD_NAME定义了本etcd的名称;ETCD_INITIAL_CLUSTER_TOKEN需要确保所有节点相同;ETCD_INITIAL_CLUSTER_STATE可以设置为 new 或者 existing,new表示初始化集群,而existing则是加入现有集群。

etcd2:

TA_DIR="/var/lib/etcd/cluster.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.0.205:2380,http://localhost:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.205:2379,http://localhost:2379"
ETCD_NAME="etcd-205"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.205:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379,http://192.168.0.205:2379"
ETCD_INITIAL_CLUSTER="etcd-204=http://192.168.0.204:2380,etcd-205=http://192.168.0.205:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"

步骤3:启动etcd服务

在etcd1和etcd2上:

systemctl start etcd
systemctl enable etcd

步骤4:查看集群状况

在etcd1查看集群信息:

[root@vms204 etcd]# etcdctl member list
193cd579a601f16a, started, etcd-204, http://192.168.0.204:2380, http://192.168.0.204:2379,http://localhost:2379
591f7e324267e48a, started, etcd-205, http://192.168.0.205:2380, http://192.168.0.205:2379,http://localhost:2379

在etcd1上创建一个目录,并在etcd2上查看是否已经同步:

[root@vms204 etcd]# etcdctl put name1 /aa
OK[root@vms205 etcd]# etcdctl get name1
name1
/aa

三:往现有集群里添加或删除一个节点

步骤1:准备工作
在etcd3上以同样的方法安装etcd,并设置etcdctl版本为3。

步骤2:在etcd1上添加etcd3入集群

etcdctl member add etcd-206 --peer-urls="http://192.168.0.206:2380"

步骤3:修改etcd3的配置文件:

vim /etc/etcd/etcd.conf

编辑的内容:

TA_DIR="/var/lib/etcd/cluster.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.0.206:2380,http://localhost:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.0.206:2379,http://localhost:2379"
ETCD_NAME="etcd-206"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.0.206:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://localhost:2379,http://192.168.0.206:2379"
ETCD_INITIAL_CLUSTER="etcd-204=http://192.168.0.204:2380,etcd-205=http://192.168.0.205:2380,etcd-206=http://192.168.0.206:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="existing"

修改完成后,在etcd3上启动etcd服务:

systemctl start etcd

然后再etcd1上查看集群内节点,发现etcd3已经加入

[root@vms204 etcd]# etcdctl member list
193cd579a601f16a, started, etcd-204, http://192.168.0.204:2380, http://192.168.0.204:2379,http://localhost:2379
5239dce97489ead4, started, etcd-206, http://192.168.0.206:2380, http://192.168.0.206:2379,http://localhost:2379
591f7e324267e48a, started, etcd-205, http://192.168.0.205:2380, http://192.168.0.205:2379,http://localhost:2379

步骤4:在etcd1上删除节点etcd3

etcdctl member remove 5239dce97489ead4

5239dce97489ead4为etcd3的ID。然后继续查看节点:

[root@vms204 etcd]# etcdctl member list
193cd579a601f16a, started, etcd-204, http://192.168.0.204:2380, http://192.168.0.204:2379,http://localhost:2379
591f7e324267e48a, started, etcd-205, http://192.168.0.205:2380, http://192.168.0.205:2379,http://localhost:2379

在etcd3上停止etcd并删除掉数据信息:

systemctl stop etcd
rm -rf /var/lib/etcd/*

四:给etcd做快照并恢复数据

注意:做快照仅能在etcdctl 3版本中来完成。

步骤1:在etcd1上创建数据

[root@vms204 ~]# etcdctl put name1 aa
OK
[root@vms204 ~]# etcdctl put name2 bb
OK
[root@vms204 ~]# etcdctl get name1
name1
aa
[root@vms204 ~]# etcdctl get name2
name2
bb

步骤2:在etcd1上做快照

[root@vms204 ~]# etcdctl snap save snap1
Snapshot saved at snap1

可以看到备份的文件:

[root@vms204 ~]# ls
anaconda-ks.cfg  calico_3_14.tar  calico.yaml  list_image_from_reg.sh  one-client-install.sh  set.sh  snap1

如果有证书的话,需要加上相关的参数:

etcdctl snap save --cacert=domain1.crt --cert=node1.pem --key=node1.key --endpoints=https://127.0.0.1:2379 snap1

步骤3:删除数据并恢复

在etcd1上删除name1和name2:

[root@vms204 ~]# etcdctl del name1
1
[root@vms204 ~]# etcdctl del name2
1

在etcd1上将快照传输在集群另外两个节点上去:

scp snap1 192.168.0.205:~
scp snap1 192.168.0.206:~

在所有节点上停止etcd并删除数据:

systemctl stop etcd
rm -rf /var/lib/etcd/*

在三个节点上给snap1设置权限:

chown etcd.etcd snap1

在三个节点上恢复数据,etcd1:

etcdctl snapshot restore snap1 --name etcd-204 --initial-cluster etcd-204=http://192.168.0.204:2380,etcd-205=http://192.168.0.205:2380,etcd-206=http://192.168.0.206:2380 --initial-advertise-peer-urls http://192.168.0.204:2380 --data-dir /var/lib/etcd/cluster.etcd

etcd2:

etcdctl snapshot restore snap1 --name etcd-205 --initial-cluster etcd-204=http://192.168.0.204:2380,etcd-205=http://192.168.0.205:2380,etcd-206=http://192.168.0.206:2380 --initial-advertise-peer-urls http://192.168.0.205:2380 --data-dir /var/lib/etcd/cluster.etcd

etcd3:

etcdctl snapshot restore snap1 --name etcd-206 --initial-cluster etcd-204=http://192.168.0.204:2380,etcd-205=http://192.168.0.205:2380,etcd-206=http://192.168.0.206:2380 --initial-advertise-peer-urls http://192.168.0.206:2380 --data-dir /var/lib/etcd/cluster.etcd

把所有节点/var/liv/etcd的所有者和所属租改为etcd:

chown -R etcd.etcd /var/lib/etcd/

三个节点分别启动etcd:

systemctl start etcd

在etcd1上查看是否还存在之前保存的数据:

[root@vms204 ~]# etcdctl get name1
name1
aa
[root@vms204 ~]# etcdctl get name2
name2
bb

整理资料来源:
《老段CKA课程》

这篇关于四、K8s etcd相关操作的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/940841

相关文章

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

90、k8s之secret+configMap

一、secret配置管理 配置管理: 加密配置:保存密码,token,其他敏感信息的k8s资源 应用配置:我们需要定制化的给应用进行配置,我们需要把定制好的配置文件同步到pod当中容器 1.1、加密配置: secret: [root@master01 ~]# kubectl get secrets ##查看加密配置[root@master01 ~]# kubectl get se

K8S(Kubernetes)开源的容器编排平台安装步骤详解

K8S(Kubernetes)是一个开源的容器编排平台,用于自动化部署、扩展和管理容器化应用程序。以下是K8S容器编排平台的安装步骤、使用方式及特点的概述: 安装步骤: 安装Docker:K8S需要基于Docker来运行容器化应用程序。首先要在所有节点上安装Docker引擎。 安装Kubernetes Master:在集群中选择一台主机作为Master节点,安装K8S的控制平面组件,如AP

两个月冲刺软考——访问位与修改位的题型(淘汰哪一页);内聚的类型;关于码制的知识点;地址映射的相关内容

1.访问位与修改位的题型(淘汰哪一页) 访问位:为1时表示在内存期间被访问过,为0时表示未被访问;修改位:为1时表示该页面自从被装入内存后被修改过,为0时表示未修改过。 置换页面时,最先置换访问位和修改位为00的,其次是01(没被访问但被修改过)的,之后是10(被访问了但没被修改过),最后是11。 2.内聚的类型 功能内聚:完成一个单一功能,各个部分协同工作,缺一不可。 顺序内聚:

log4j2相关配置说明以及${sys:catalina.home}应用

${sys:catalina.home} 等价于 System.getProperty("catalina.home") 就是Tomcat的根目录:  C:\apache-tomcat-7.0.77 <PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /> 2017-08-10

Node Linux相关安装

下载经编译好的文件cd /optwget https://nodejs.org/dist/v10.15.3/node-v10.15.3-linux-x64.tar.gztar -xvf node-v10.15.3-linux-x64.tar.gzln -s /opt/node-v10.15.3-linux-x64/bin/npm /usr/local/bin/ln -s /opt/nod

git ssh key相关

step1、进入.ssh文件夹   (windows下 下载git客户端)   cd ~/.ssh(windows mkdir ~/.ssh) step2、配置name和email git config --global user.name "你的名称"git config --global user.email "你的邮箱" step3、生成key ssh-keygen

【Kubernetes】K8s 的安全框架和用户认证

K8s 的安全框架和用户认证 1.Kubernetes 的安全框架1.1 认证:Authentication1.2 鉴权:Authorization1.3 准入控制:Admission Control 2.Kubernetes 的用户认证2.1 Kubernetes 的用户认证方式2.2 配置 Kubernetes 集群使用密码认证 Kubernetes 作为一个分布式的虚拟

zookeeper相关面试题

zk的数据同步原理?zk的集群会出现脑裂的问题吗?zk的watch机制实现原理?zk是如何保证一致性的?zk的快速选举leader原理?zk的典型应用场景zk中一个客户端修改了数据之后,其他客户端能够马上获取到最新的数据吗?zk对事物的支持? 1. zk的数据同步原理? zk的数据同步过程中,通过以下三个参数来选择对应的数据同步方式 peerLastZxid:Learner服务器(Follo

动手学深度学习【数据操作+数据预处理】

import osos.makedirs(os.path.join('.', 'data'), exist_ok=True)data_file = os.path.join('.', 'data', 'house_tiny.csv')with open(data_file, 'w') as f:f.write('NumRooms,Alley,Price\n') # 列名f.write('NA