【Ceph集群应用】Ceph块存储之RBD接口详解

2023-10-14 21:10

本文主要是介绍【Ceph集群应用】Ceph块存储之RBD接口详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Ceph块存储之RBD接口详解

  • 1.创建Ceph块存储系统RBD接口
    • 1.1 删除镜像
    • 1.2 还原镜像
    • 1.3 在线扩容
    • 1.4 回滚镜像到指定位置
    • 1.5 删除快照
    • 1.6 快照分层
    • 1.7 快照展平
    • 1.8 镜像的导出导入

接上文基于ceph-deploy部署Ceph集群详解

1.创建Ceph块存储系统RBD接口

(1)创建一个名为rbd-demo的专门用于RBD的存储池

ceph osd pool create rbd-demo 64 64

(2)将存储池转换为RBD模式

ceph osd pool application enable rbd-demo rbd

(3)初始化存储池

rbd pool init -p rbd-demo			# -p 等同于 --pool

(4)创建镜像

rbd create -p rbd-demo --image rbd-demo1.img --size 10G###可简写为
rbd create rbd-demo/rbd-demo2.img --size 10G

在这里插入图片描述

(5)镜像管理

查看存储池下存在哪些镜像

rbd ls -l -p rbd-demo

查看镜像的详细信息

rbd info -p rbd-demo --image rbd-demo1.img

在这里插入图片描述

修改镜像大小

rbd resize -p rbd-demo --image rbd-demo1.img --size 20Grbd info -p rbd-demo --image rbd-demo1.img#使用 resize 调整镜像大小,一般建议只增不减,如果是减少的话需要加选项 --allow-shrink
rbd resize -p rbd-demo --image rbd-demo1.img --size 5G --allow-shrink

在这里插入图片描述
在这里插入图片描述

1.1 删除镜像

直接删除镜像

rbd rm -p rbd-demo --image rbd-demo2.img
rbd remove rbd-demo/rbd-demo2.img

在这里插入图片描述

推荐使用trash命令,这个命令删除是将镜像移动至回收站,如果想找回还可以恢复

rbd trash move rbd-demo/rbd-demo1.imgrbd ls -l -p rbd-demorbd trash list -p rbd-demo
acc62785c8bb rbd-demo1.img

在这里插入图片描述

1.2 还原镜像

rbd trash restore rbd-demo/acc62785c8bbrbd ls -l -p rbd-demo

在这里插入图片描述

(6)Linux客户端使用

客户端使用RBD有两种方式:

  • 通过内核模块KRBD将镜像映射为系统本地块设备,通常设置文件一般为:/dev/rbd*
  • 另一种是通过librbd接口,通常KVM虚拟机使用这种接口

本例主要是使用Linux客户端挂载RBD镜像为本地磁盘使用。开始之前需要在所需要客户端节点上面安装ceph-common软件包,因为客户端需要调用rbd命令将RBD镜像映射到本地当作一块普通硬盘使用。并还需要把ceph.conf配置文件和授权keyring文件复制到对应的节点

在管理节点创建并授权一个用户可访问指定的 RBD 存储池

#示例,指定用户标识为client.osd-mount,对另对OSD有所有的权限,对Mon有只读的权限
ceph auth get-or-create client.osd-mount osd "allow * pool=rbd-demo" mon "allow r" > /etc/ceph/ceph.client.osd-mount.keyring

修改RBD镜像特性,CentOS7默认情况下只支持layering和striping特性,需要将其它的特性关闭

rbd feature disable rbd-demo/rbd-demo1.img object-map,fast-diff,deep-flatten

在这里插入图片描述

将用户的keyring文件和ceph.conf文件发送到客户端的/etc/ceph目录下

cd /etc/ceph
scp ceph.client.osd-mount.keyring ceph.conf root@client:/etc/ceph

在这里插入图片描述

linux客户端操作

#安装ceph-common软件包
yum install -y ceph-common

执行客户端映射

cd /etc/ceph
rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount

查看映射

rbd showmapped
rbd device list

在这里插入图片描述

断开映射

rbd unmap rbd-demo/rbd-demo1.img

格式化并挂载

mkfs.xfs /dev/rbd0mkdir -p /data/bb
mount /dev/rbd0 /data/bb

在这里插入图片描述

1.3 在线扩容

###在管理节点调整镜像的大小
rbd resize rbd-demo/rbd-demo1.img --size 30G

在线刷新/dev/rbd0设备文件

xfs_growfs /dev/rbd0		#刷新xfs文件系统容量
resize2fs /dev/rbd0			#刷新ext4类型文件系统容量

在这里插入图片描述

(7)快照管理

对rb 镜像进行快照,可以保留镜像的状态历史,另外还可以利用快照的分层技术,通过将快照克隆为新的镜像使用

在客户端写入文件:

echo 1111 > /data/bb/11.txt
echo 2222 > /data/bb/22.txt
echo 3333 > /data/bb/33.txt

在管理节点对镜像创建快照

rbd snap create --pool rbd-demo --image rbd-demo1.img --snap demo1_snap1###可简写为
rbd snap create rbd-demo/rbd-demo1.img@demo1_snap1

列出指定镜像所有快照

rbd snap list rbd-demo/rbd-demo1.img

用json格式输出

rbd snap list rbd-demo/rbd-demo1.img --format json --pretty-format

在这里插入图片描述

1.4 回滚镜像到指定位置

在回滚快照之前,需要将镜像取消镜像的映射,然后再回滚

在客户端操作

rm -rf /data/bb/*
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img

在这里插入图片描述

在管理节点操作,回滚镜像到快照的位置

rbd snap rollback rbd-demo/rbd-demo1.img@demo1_snap1

在这里插入图片描述

在客户端重新映射并挂载

rbd map rbd-demo/rbd-demo1.img --keyring /etc/ceph/ceph.client.osd-mount.keyring --user osd-mount
mount /dev/rbd0 /data/bb
ls /data/bb				#发现数据还原回来了

在这里插入图片描述

限制镜像可创建快照数

rbd snap limit set rbd-demo/rbd-demo1.img --limit 3

解除限制

rbd snap limit clear rbd-demo/rbd-demo1.img

1.5 删除快照

删除指定快照

rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap1

删除所有快照

rbd snap purge rbd-demo/rbd-demo1.img

在这里插入图片描述

1.6 快照分层

快照分层支持用快照的克隆生成新镜像,这种镜像与直接创建的镜像几乎完全一样,支持镜像的所有操作。唯一不同的是克隆镜像引用了一个只读的上游快照,而且此快照必须要设置保护模式

快照克隆

(1)将上游快照设置为保护模式

rbd snap create rbd-demo/rbd-demo1.img@demo1_snap666rbd snap protect rbd-demo/rbd-demo1.img@demo1_snap666
rbd snap list rbd-demo/rbd-demo1.img     #列出指定镜像的所有快照

在这里插入图片描述

(2)克隆快照为新的镜像

rbd clone rbd-demo/rbd-demo1.img@demo1_snap666 --dest rbd-demo/rbd-demo666.imgrbd ls -l -p rbd-demo     #查看存储池下存在那些镜像   

(3)命令查看克隆完成后快照的子镜像

rbd children rbd-demo/rbd-demo1.img@demo1_snap666

在这里插入图片描述
在这里插入图片描述

1.7 快照展平

通常情况下,通过快照克隆而得到的镜像会保留对父快照的引用,这时候不可以删除该父快照,否则会有影响。

rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
#报错snapshot 'demo1_snap666' is protected from removal

如果要删除快照但想保留其子镜像,必须先展平其子镜像,展平的时间取决于镜像的大小
(1)展平子镜像

rbd flatten rbd-demo/rbd-demo666.img

(2)取消快照保护

rbd snap unprotect rbd-demo/rbd-demo1.img@demo1_snap666

(3)删除快照

rbd snap rm rbd-demo/rbd-demo1.img@demo1_snap666
rbd ls -l -p rbd-demo			#在删除掉快照后,查看子镜像依然存在

在这里插入图片描述

1.8 镜像的导出导入

  • 导出镜像
rbd export rbd-demo/rbd-demo1.img  /opt/rbd-demo1.img

在这里插入图片描述

  • 导入镜像
#卸载客户端挂载,并取消映射
umount /data/bb
rbd unmap rbd-demo/rbd-demo1.img
  • 清除镜像下的所有快照,并删除镜像
rbd snap purge rbd-demo/rbd-demo1.img   purge:清除
rbd rm rbd-demo/rbd-demo1.imgrbd ls -l -p rbd-demo

在这里插入图片描述

  • 导入镜像
rbd import /opt/rbd-demo1.img  rbd-demo/rbd-demo1.img
rbd ls -l -p rbd-demo

在这里插入图片描述

这篇关于【Ceph集群应用】Ceph块存储之RBD接口详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/213166

相关文章

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu1394(线段树点更新的应用)

题意:求一个序列经过一定的操作得到的序列的最小逆序数 这题会用到逆序数的一个性质,在0到n-1这些数字组成的乱序排列,将第一个数字A移到最后一位,得到的逆序数为res-a+(n-a-1) 知道上面的知识点后,可以用暴力来解 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#in