Ceph OSD Down

2024-04-16 14:48
文章标签 osd ceph

本文主要是介绍Ceph OSD Down,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

CEPH集群跑了一段时间后有几个OSD变成down的状态了,但是我用这个命令去activate也不行

ceph-deploy osd activate osd1:/dev/sdb2:/dev/sdb1


只能把osd从集群中移除,然后再重建了,这个过程必须在ceph重新把数据同步完成才可以做,保证down掉的数据在其他osd中恢复。


在集群中删除一个osd硬盘
#ceph osd rm 14
removed osd.14
#ceph osd crush rm osd.14
removed item id 24 name 'osd.24' from crush map
#ceph auth del osd.14
此时在x3节点上查看已经自动umount了osd.14
#umount /var/lib/ceph/osd/ceph-24




然后再重新创建即可,文档http://jqjiang.com/ceph/ceph/

然后等待ceph恢复数据同步 



附:
摘掉osd的脚本如下
osd_id=`ceph osd tree | grep down | grep osd | awk '{print $3}' | awk -F . '{print $2}'`
ceph osd rm ${osd_id}
ceph osd crush rm osd.${osd_id}
ceph auth del osd.${osd_id}
umount /var/lib/ceph/osd/ceph-${osd_id}

这篇关于Ceph OSD Down的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/909090

相关文章

Ceph入门到精通-shell脚本读取指定文件,并按行使用rclone命令进行复制操作

要使用shell脚本读取指定文件,并按行使用rclone命令进行复制操作,您可以编写一个简单的脚本来实现这一功能。以下是一个示例脚本,它将读取指定文件的每一行,然后使用rclone copy命令将远程存储中的文件复制到本地目录。 首先,创建一个新的shell脚本文件,例如download_files.sh,并在文件中写入以下内容: #!/bin/bash# 指定要读取的文件路径INPUT_F

第29讲:Ceph集群使用RBD块存储设备与K8S的PV集成

文章目录 1.Ceph集群使用RBD块存储与K8S集成简介2.Ceph集群RBD块存储与K8S PV存储卷集成2.1.创建K8S集群PV使用的块存储2.2.创建K8S集群访问RBD块存储设备的认证用户2.3.将认证用户的Key存储在K8S Secret资源中2.4.在K8S集群的所有节点中安装Ceph命令2.5.创建PV及PVC资源使用RBD作为底层存储2.6.创建Pod资源挂载PV存储卷并

3. ceph-mimic版本部署

ceph-mimic版本部署 一、ceph-mimic版本部署1、环境规划2、系统基础环境准备2.1 关闭防火墙、SELinux2.2 确保所有主机时间同步2.3 所有主机ssh免密2.4 添加所有主机解析 3、配置ceph软件仓库4、安装ceph-deploy工具5、ceph集群初始化6、所有ceph集群节点安装相关软件7、客户端安装ceph-common软件8、在ceph集群中创建cep

第26讲:Ceph集群OSD扩缩容中Reblanceing数据重分布

文章目录 1.Reblanceing数据重分布的概念2.验证Reblanceing触发的过程3.Reblanceing细节4.临时关闭Reblanceing机制 1.Reblanceing数据重分布的概念 当集群中OSD进行扩缩容操作后,会触发一个Reblanceing数据重分布的机制,简单的理解就是将扩缩容前后OSD中的PG在每一个OSD中进行均匀分布,如下图所示: 在

21.配置cinder使用nfs及ceph作为后端存储

使用nfs作为后端存储: 此处使用OSP1(使用packstack安装的openstack环境) 作为NFS服务器来测试使用。 在OSP1上配置NFS:   在OSP3上面测试访问NFS成功,如下: # showmount -e 192.168.179.137 测试挂载成功:

19.配置glance使用ceph作为后端存储

ceph作为后端存储: ceph提供三种存储: 1.对象存储 2.文件存储 3.块存储 框架图: 元数据服务器 MD/MDS 集群监视器MON 对象存储服务器OSD     实际部署的时候,新建了node1(RHEL7.1)和node2(RHEL7.1),其中node1作为MD/MON/OSD1,node2作为OSD2 更新hosts文件:   配置下yum

Ceph入门到精通-ceph经典盘符飘逸问题处理步骤

在Ceph存储系统中,"盘符飘逸"通常指的是Ceph OSD(Object Storage Daemon)使用的磁盘在系统重启后没有被正确挂载或识别。这可能是由于多种原因造成的,例如磁盘连接问题、驱动问题或配置错误。以下是解决此问题的步骤: 确认磁盘状态: 使用lsblk或fdisk -l命令来检查磁盘的状态和分区信息。 检查Ceph OSD状态: 使用ceph osd tree命令查看所有

ceph架构学习1

本次文档详细学习ceph官网架构文档,网址为:http://ceph.com/docs/master/architecture/    先关注一下ceph的API类型: librados是rados的 library,可以支持C,C++,Java,Python,Rubby和php;radosgw是基于通的REST网关,兼容S3和和Swift接口;rbd 是稳定的全分布式块设备

ceph基础研究(2)

上篇研究了ceph的基础,今天继续阅读官网,记录基础知识。大家有什么不懂,欢迎留言,共同学习。。。  本次主要分析对象存储的内容,研究点为:http://ceph.com/docs/master/rados/     可以使用下面命令,禁止osd将数据先写到硬盘缓存,直接写到硬盘。 sudo hdparm -W 0 /dev/hda 0      目前官网推荐的ceph使用的文件

ceph基础研究

去年9月份团队开始研究ceph,我因为研究hadoop,没有经历投入,现在开始研究ceph替代hdfs可行性问题,不知道业内有这样做的吗?我最担心的就是Yarn和ceph本地计算问题,可能会改Yarn的源代码。本次研究是基于hadoop2.0的,希望我能够坚持下来,完成这个项目吧。接下来记录一些博文,本质是改变一下个人的学习习惯,记录一些关键问题,希望大家多提宝贵意见哦,个人邮箱:49