Openstack 与 Ceph集群搭建(完结): 配置Ceph作为Openstack后端存储

2024-08-27 17:44

本文主要是介绍Openstack 与 Ceph集群搭建(完结): 配置Ceph作为Openstack后端存储,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 参考文章
    • 1. 前置任务
      • 1.0 修改Openstack配置文件
      • 1.1. 完成搭建的Ceph集群
      • 1.2. 完成存储pool的创建
      • 1.3. 针对OpenStack服务提供的Ceph keyring
        • 1.3.1. 生成glance的keyring
        • 1.3.2. 生成Cinder的keyring
        • 1.3.3. 生成Cinder-backup的Keyring
        • 1.3.4. 生成Nova的keyring
    • 2. Glance对接Ceph
      • 2.1 编辑`globals.yml`文件
      • 2.2 复制ceph.conf文件
      • 2.3 复制keyring文件
      • 2.4 修改glance配置文件
      • 2.5 查看
    • 3. Cinder对接Ceph
      • 3.1 调整multinode文件配置
      • 3.2 编辑globals.yml文件
      • 3.3 复制cepf.conf文件
      • 3.4 复制keyring文件
      • 3.5 nova关联配置
      • 3.6 zun关联配置
      • 3.7 查看
    • 4. Nova对接Ceph
      • 4.1 编辑globals.yml 文件
      • 4.2 复制ceph.conf文件
      • 4.3 复制keyring
    • 5. 配置生效

参考文章

Openstack 官方对接ceph文档
Openstack 与 Ceph集群搭建(上): 规划与准备
Openstack 与 Ceph集群搭建(中): Ceph部署
Openstack 与 Ceph集群搭建(下): Openstack部署
Openstack 与 Ceph集群搭建(完结): 配置Ceph作为Openstack后端存储

1. 前置任务

1.0 修改Openstack配置文件

/etc/kolla/globals.yml,该文件定义OpenStack所需要安装的服务。

kolla_base_distro: "ubuntu"kolla_internal_vip_address: "172.16.250.253"network_interface: "vlan1250"neutron_external_interface: "bond0"enable_haproxy: "yes"
enable_cinder: "yes"
enable_cinder_backup: "yes"
enable_neutron_vpnaas: "yes"
enable_neutron_sriov: "no"
enable_neutron_dvr: "yes"
enable_neutron_fwaas: "yes"
enable_neutron_qos: "yes"
enable_neutron_agent_ha: "yes"
enable_neutron_bgp_dragent: "yes"
enable_neutron_provider_networks: "yes"
enable_neutron_trunk: "yes"
enable_neutron_port_forwarding: "yes"
enable_skyline: "yes"# Glance
ceph_glance_user: "glance"
ceph_glance_keyring: "client.{{ ceph_glance_user }}.keyring"
ceph_glance_pool_name: "glance-images"
# Cinder
ceph_cinder_user: "cinder"
ceph_cinder_keyring: "client.{{ ceph_cinder_user }}.keyring"
ceph_cinder_pool_name: "cinder-volumes"
ceph_cinder_backup_user: "cinder-backup"
ceph_cinder_backup_keyring: "client.{{ ceph_cinder_backup_user }}.keyring"
ceph_cinder_backup_pool_name: "cinder-backups"
# Nova
ceph_nova_keyring: "{{ ceph_cinder_keyring }}"
ceph_nova_user: "{{ ceph_cinder_user }}"
ceph_nova_pool_name: "nova-vms"glance_backend_ceph: "yes"cinder_backend_ceph: "yes"cinder_volume_group: "cinder-volumes"cinder_backup_driver: "ceph"nova_backend_ceph: "yes"nova_compute_virt_type: "kvm"

1.1. 完成搭建的Ceph集群

请参考Openstack 与 Ceph集群搭建(中): Ceph部署

1.2. 完成存储pool的创建

ceph osd pool create glance-images 300
ceph osd pool create cinder-backups 300
ceph osd pool create cinder-volumes 300
ceph osd pool create nova-vms 300
rbd pool init glance-images
rbd pool init cinder-backups
rbd pool init cinder-volumes
rbd pool init nova-vms

在这里插入图片描述

1.3. 针对OpenStack服务提供的Ceph keyring

keyring是给Openstack各服务用来访问存储使用的。生成keyring方式是在ceph管理节点执行以下操作。

注意:以下命令请保证pool名称与前面创建的名称一致

1.3.1. 生成glance的keyring
ceph auth get-or-create client.glance mon 'allow rwx' osd 'allow class-read object_prefix rbd_children, allow rwx pool=glance-images' 

在这里插入图片描述

1.3.2. 生成Cinder的keyring
ceph auth get-or-create client.cinder mon 'allow rwx' osd 'allow class-read object_prefix rbd_children, allow rwx pool=cinder-volumes, allow rwx pool=nova-vms ,allow rwx pool=glance-images'

在这里插入图片描述

1.3.3. 生成Cinder-backup的Keyring
ceph auth get-or-create client.cinder-backup mon 'allow rwx' osd 'allow class-read object_prefix rbd_children, allow rwx pool=cinder-backups' 

在这里插入图片描述

1.3.4. 生成Nova的keyring
ceph auth get-or-create client.nova mon 'allow rwx' osd 'allow class-read object_prefix rbd_children, allow rwx pool=nova-vms'  

在这里插入图片描述

2. Glance对接Ceph

2.1 编辑globals.yml文件

glance_backend_ceph: "yes"
# Glance
ceph_glance_keyring: "ceph.client.glance.keyring"
ceph_glance_user: "glance"
ceph_glance_pool_name: "glance-images"

2.2 复制ceph.conf文件

创建文件夹

mkdir -p /etc/kolla/config/glance

将ceph控制节点上的配置文件/etc/ceph/ceph.conf复制到etc/kolla/config/glance/ceph.conf

[global]fsid = 37bdf718-428b-11ef-90f7-ef5ebd5ff9aemon_host = 10.148.250.250,10.148.250.249,10.148.250.248                                  

注意:在上述存储配置中,自动生成的配置文件mon_host可能还有其他参数,手动修改为纯IP即可。

2.3 复制keyring文件

将前置任务中针对glance生成的keyring文件复制到/etc/kolla/config/glance/ceph.client.glance.keyring

2.4 修改glance配置文件

编辑或新增/etc/kolla/config/glance.conf

[GLOBAL]
show_image_direct_url = True

警告:show_image_direct_url can present a security risk if using more than just Ceph as Glance backend(s). Please see Glance show_image_direct_url

2.5 查看

在这里插入图片描述

3. Cinder对接Ceph

3.1 调整multinode文件配置

当使用外部存储时Openstack无需存储节点,但是Kolla-ansible有[storage]组,为了保证部署openstack不报错,需要设置control为[storage]成员,如下:

编辑multinode文件

[storage]
node-03

3.2 编辑globals.yml文件

cinder_backend_ceph: "yes"
# Cinder
ceph_cinder_keyring: "ceph.client.cinder.keyring"
ceph_cinder_user: "cinder"
ceph_cinder_pool_name: "cinder-volumes"
ceph_cinder_backup_keyring: "ceph.client.cinder-backup.keyring"
ceph_cinder_backup_user: "cinder-backup"
ceph_cinder_backup_pool_name: "cinder-backups"

3.3 复制cepf.conf文件

与Glance保持一致:将ceph控制节点上的配置文件复制到etc/kolla/config/cinder/ceph.conf

mkdir -p /etc/kolla/config/cinder/
mkdir -p /etc/kolla/config/cinder/cinder-volume
mkdir -p /etc/kolla/config/cinder/cinder-backup

3.4 复制keyring文件

复制置任务中针对Cinder生成的keyring,因为是从存储节点复制文件到OpenStack部署节点,故自行操作,目标路径如下:

/etc/kolla/config/cinder/cinder-volume/ceph.client.cinder.keyring

/etc/kolla/config/cinder/cinder-backup/ceph.client.cinder.keyring

/etc/kolla/config/cinder/cinder-backup/ceph.client.cinder-backup.keyring

注意:cinder-backup文件夹需要复制两个keyring,分别是cinder-backup.keyring、cinder.keyring

3.5 nova关联配置

因cinder配置后端ceph存储,那么nova也必须可以访问cinder volumes,编辑globals.yml文件。

ceph_nova_keyring: "{{ ceph_cinder_keyring }}"

复制ceph.client.cinder.keyring文件到/etc/kolla/config/nova/ceph.client.cinder-backup.keyring

如果没有/etc/kolla/config/nova/文件夹,新建即可。

3.6 zun关联配置

由于zun非必要组件,此处忽略。

3.7 查看

在这里插入图片描述

4. Nova对接Ceph

4.1 编辑globals.yml 文件

nova_backend_ceph: "yes"# Nova
ceph_nova_keyring: "{{ ceph_cinder_keyring }}"
ceph_nova_user: "{{ ceph_cinder_user }}"
ceph_nova_pool_name: "nova-vms"

4.2 复制ceph.conf文件

将ceph控制节点上的配置文件复制到`etc/kolla/config/nova

4.3 复制keyring

复制置任务中针对nova生成的keyring,因为是从存储节点复制文件到OpenStack部署节点,故自行操作,目标路径如下:

/etc/kolla/config/nova/ceph.client.nova.keyring

5. 配置生效

kolla-ansible -i /etc/kolla/multinode reconfigure --tags glance nova cinder 

这篇关于Openstack 与 Ceph集群搭建(完结): 配置Ceph作为Openstack后端存储的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1112344

相关文章

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于