【K8s】3# 使用kuboard管理K8s集群(NFS存储安装)

2023-12-22 04:15

本文主要是介绍【K8s】3# 使用kuboard管理K8s集群(NFS存储安装),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 1.NFS是什么
  • 2.配置NFS服务器
    • 2.1.执行以下命令安装 nfs 服务器所需的软件包
    • 2.2.执行命令 vim /etc/exports,创建 exports 文件,文件内容如下
    • 2.3.执行以下命令,启动 nfs 服务
    • 2.4.检查配置是否生效
  • 3.在客户端测试NFS
    • 3.1.执行以下命令安装 nfs 客户端所需的软件包(所有客户端节点)
    • 3.2.执行以下命令检查 nfs 服务器端是否有设置共享目录
  • 4.在Kuboard中创建 NFS 存储类
    • 4.1.设置存储类
    • 4.2.填写表单输入表单
    • 4.1.在场景中使用存储类

1.NFS是什么

最完整的学习文档莫过于官网:直达地址:Kuboard for K8S

Kubernetes 对 Pod 进行调度时,以当时集群中各节点的可用资源作为主要依据,自动选择某一个可用的节点,并将 Pod 分配到该节点上。在这种情况下,Pod 中容器数据的持久化如果存储在所在节点的磁盘上,就会产生不可预知的问题,例如,当 Pod 出现故障,Kubernetes 重新调度之后,Pod 所在的新节点上,并不存在上一次 Pod 运行时所在节点上的数据。

为了使 Pod 在任何节点上都能够使用同一份持久化存储数据,我们需要使用网络存储的解决方案为 Pod 提供 数据卷。
常用的网络存储方案有:

  • NFS
  • cephfs
  • glusterfs`。

本文介绍一种使用 centos 搭建 nfs 服务器的方法。此方法仅用于测试目的,请根据您生产环境的实际情况,选择合适的 NFS 服务。

2.配置NFS服务器

2.1.执行以下命令安装 nfs 服务器所需的软件包

yum install -y rpcbind nfs-utils

2.2.执行命令 vim /etc/exports,创建 exports 文件,文件内容如下

/root/nfs_root/ *(insecure,rw,sync,no_root_squash)
  • ro: 只读访问
  • rw:读写访问sync 所有数据在请求时写入共享
  • sync: nfs在写入数据前阻塞响应请求
  • insecure: nfs通过1024以上的端口发送
  • no_root_squash:不讲root用户及所属用户组映射为匿名用户或用户组,默认root是被映射为匿名用户的nfsnobody,所有即使开了rw写权限,客户机也使无法写入的,这个不映射为匿名用户,还保留原来的用户权限就可以读写了,因为一般都是用root用户登录的。
  • 注意:当客机是否有写权限时,还要看该目录对该用户有没有开放写入权限

2.3.执行以下命令,启动 nfs 服务

# 创建共享目录,如果要使用自己的目录,请替换本文档中所有的 /root/nfs_root/
mkdir /root/nfs_rootsystemctl enable rpcbind
systemctl enable nfs-serversystemctl start rpcbind
systemctl start nfs-server
exportfs -r

2.4.检查配置是否生效

exportfs
# 输出结果如下所示
/root/nfs_root  <world>

exportfs 选项参数

  • -a:输出/etc/exports中设置的所有目录
  • -r:重新读取/etc/exports文件中的设置,并且立即生效,而不需要重新启动NFS服务
  • -u:停止输出某一目录
  • -v:在输出目录时,将目录显示在屏幕上。
  1. 修改vi /etc/exports后,不用重启服务,直接使用命令输出共享目录
    exportfs -rv
  2. 停止输出所有共享目录
    exportfs -auv

3.在客户端测试NFS

3.1.执行以下命令安装 nfs 客户端所需的软件包(所有客户端节点)

yum install -y nfs-utils

3.2.执行以下命令检查 nfs 服务器端是否有设置共享目录

# showmount -e $(nfs服务器的IP)
showmount -e 192.168.33.106

输出结果:
在这里插入图片描述

showmount 参数选项 nfs服务器名称或地址

  • -a:显示指定的nfs服务器的所有客户端主机及其所连接的目录
  • -d:显示指定的nfs服务器中已经被客户端连接的所有共享目录
  • -e:显示指定的nfs服务器上所有输出的共享目录
  1. 查看所有输出的共享目录
    showmount -e
  2. 显示所有被挂载的所有输出目录
    showmount -d

4.在Kuboard中创建 NFS 存储类

4.1.设置存储类

打开 Kuboard 的集群概览页面,点击 创建存储类 按钮,如下图所示

在这里插入图片描述

4.2.填写表单输入表单

  • 名称 nfs-storage 请自定义名称
  • NFS Server 172.17.216.82 请使用您自己的NFS服务的IP地址
  • NFS Path /root/nfs_root 请使用您自己的NFS服务所共享的路径

在这里插入图片描述

4.1.在场景中使用存储类

此时您可以在自己的场景中使用刚创建的存储类。Kuboard上,有以下几个地方可以用到NFS存储> > 类:

  • 导入 example 微服务
  • 安装监控套件

在这里插入图片描述

下一章节,使用kuboard不是开源项目 blade-cloud

这篇关于【K8s】3# 使用kuboard管理K8s集群(NFS存储安装)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/522556

相关文章

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd