利用pcs +pacemaker +corosync 实现(HA)高可用集群

2024-01-15 04:08

本文主要是介绍利用pcs +pacemaker +corosync 实现(HA)高可用集群,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

实验环境搭建

  1. 在linux环境中,通过母盘是redhat7.6的操作系统,克隆搭建三台域名分别为node1,node2, node3,主机名分别为server1,server2,server3的三台虚拟机。(名称可以任选)
  2. 给三台主机分别配置好各自的ip地址和dns地址解析,实现三台虚拟机可以互相ping通。

对于虚拟机的ip和对应的dns解析可以参考
在这里插入图片描述

  1. 配置好三台主机的yum源仓库,(可以通过宿主机的httpd服务,搭建网络仓库)

对于做高可用节点的虚拟机server1和server2则需要指明高可用套件所在的位置
在这里插入图片描述

  1. 关闭掉所有虚拟机的防火墙,并将所有主机的selinux设置为disabled状态

实验目的和实验步骤

实验目的:使用corosync作为集群消息事务层(Massage Layer),pacemaker作为集群资源管理器(Cluster Resource Management),pcs作为CRM的管理接口工具。要求实现httpd的高可用功能。

参考文件: 链接: https://pan.baidu.com/s/1jqC1vD7vurfHBC5pwtfTEQ 提取码: qrpf

实验步骤:

实现简单的httpd高可用

注: 将server1和server2主机作为高可用集群的两个节点,sever3主机作为外部储存设备(iscsi实现)

  1. 给server1 和 server2 安装工具
    yum install -y pacemaker pcs psmisc policycoreutils-python
  1. 启动server1和server2上的pcsd服务
    systemctl status pcsd
  1. 给server1和server2主机的hacluster用户添加密码
    echo westos | passwd --stdin hacluster
  1. 在任意一个节点上,利用pcs集群auth认证为hacluster用户
    pcs cluster auth server1 server2
    在这里插入图片描述注: /var/lib/pcsd/tokens 放着认证信息,下次使用的时候就不需要认证在这里插入图片描述
  1. 接下来,在同一个节点上使用pc集群设置来生成和同步corosync配置
    pcs cluster setup --name mycluster server1 server2
  1. 开启集群上所有节点
    pcs cluster start --all 也可以指定某个节点开启,也可以将他们设置为开机自启pcs cluster enable --allpcs cluster status 命令查看该集群上节点的状态信息在这里插入图片描述
  1. 可以用corosync-cfgtool -s 查看当前集群通信是否正常(显示的是当前节点的信息)在这里插入图片描述
  1. 可以用pcs status corosync查看当前加入该集群的节点信息在这里插入图片描述
  1. pcs status可以看到会有一个警告,用crm_verify -L -V 可以看到报错,这是因为为了保护数据的安全,默认会开启stonith这个属性,stonith代表的是fence的总开关,在配置fence之前一定要把这个开关打开,我们稍后配置fence, 所以用pcs property set stonith-enabled=false关闭该功能
    在这里插入图片描述
    关闭后的结果:在这里插入图片描述
  1. 创建第一个资源vip,添加虚拟ip
    pcs resource create vip ocf:heartbeat:IPaddr2 ip=172.25.3.100 op monitor interval=30s (vip是资源的名称,第一个字段(本例中为ocf)是资源脚本遵循的标准以及查找它的位置,要获取可用资源标准的列表(ocf: heartbeat:IPaddr2的ocf部分),运行pcs resource standards;第二个字段(在本例中为心跳)是特定于标准的;对于OCF资源,它告诉集群资源脚本在哪个OCF名称空间中,要获取可用OCF资源提供程序的列表,运行pcs resource providers;第三个字段(本例中为IPaddr2)是资源脚本的名称 ,运行pcs resource agents ocf:heartbeat查看。op monitor interval 是隔多少秒的监控, 运行pcs resource describe ocf:heartbeat:IPaddr2查看参数,其中require是必须要有的。)在这里插入图片描述
    此时第一个资源已经创建好了,此时作用在server1节点上,当我们关闭server1节点,则会自动漂移到server2节点上在这里插入图片描述
    在这里插入图片描述
  1. 创建第二个资源web,用户实现httpd集群
    注: 需要在两个节点上安装httpd服务
    pcs resource create web systemd:httpd op monitor interval=60s
    在这里插入图片描述
  1. 此时两个资源都创建好了,但是此时两个开启的不是在同一个节点,可以通过创建资源组的方式,使他们同时存在在同一个节点中
    pcs resource group add webgroup vip web (webgroup 是组名,后面跟的是资源的名称,书写的顺序,就是优先级从高到低的顺序)
    最后的结果:在这里插入图片描述
  1. 此时就可以测试了,给两个主机添加web测试页 echo server1 > /var/www/html/index.html echo server2 > /var/www/html/index.html, 此时资源组webgroup是作用在server1节点上的,所以他的vip, httpd 都是自动打开的不需要我们手动管理在这里插入图片描述
    当我们手动关闭一个节点server1之后,他会将资源自动漂移到另一个节点server2(vip的自动漂移就会体现这一点),这样就算简单实现了httpd的高可用在这里插入图片描述

实现带有数据储存的httpd高可用

  1. 给server3 安装targetd 实现iscsi网络磁盘共享
    参考: iscsi网络磁盘共享
    具体步骤:
    1). 给虚拟机添加一块硬盘在这里插入图片描述
  1. 在server3上yum install targetcli -y,并且将刚刚创建的磁盘共享
    创建步骤:
    1). /backstores/block create mydisk /dev/vdb
    2). /iscsi create iqn.2020-10.com.westos:target1
    3). /iscsi/iqn.2020-10.com.westos:target1/tpg1/acls create wwn=iqn.2020-10.com.westos:client
    4). /iscsi/iqn.2020-10.com.westos:target1/tpg1/luns create /backstores/block/mydisk
  1. 在server1和server2上都要执行的操作:
    1). yum install iscsi-* -y
    2). iscsiadm -m discovery -t st -p 172.25.3.3
    3). iscsiadm -m node -l
    在这里插入图片描述
  1. 在任意一个节点上对网络磁盘/dev/sda进行分区, 在另一个节点上如果分区没有显示出来的话,需要用partprobe同步下分区表在这里插入图片描述
  1. 在任意节点上用mkfs.xfs /dev/sda1格式化该分区
  1. 在任意节点上创建数据资源wwwdata
    pcs resource create wwwdata ocf:heartbeat:Filesystem device=/dev/sda1 directory=/var/www/html fstype=xfs op monitor interval=30s在这里插入图片描述
  1. 由于新建的资源没有在webgroup资源组里,优先级必须是vip, wwwdata, web
    步骤:
    1). pcs resource group remove webgroup
    2). pcs resource group add webgroup vip wwwdata web
    在这里插入图片描述
  1. 测试:此时资源放在server1节点上,当server1节点不能正常工作后,会自动漂移到另一个节点上

实现带fence的httpd高可用

  1. 宿主机安装fence-virtddnf install fence-virtd*
  1. ‘fence_virtd -c’ 进入fence_virtd的配置模式在这里插入图片描述
  1. 创建认证文件,并重启服务
    1).mkdir /etc/cluster
    2).dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1
    3). systemctl restart fence_virtd.service
  1. 在两个节点上创建 /etc/cluster目录,并且将宿主机上的认证文件放到该目录下scp /etc/cluster/fence_xvm.key server2:/etc/cluster/fence_xvm.key
  1. 可以在节点上查看可用的fence
    stonith_admin -I在这里插入图片描述
    stonith_admin -M -a fence_xvm 查看fence_xvm的详细信息
  1. 创建fencs_xvm类型的vmfence
    pcs stonith create vmfence fence_xvm pcmk_host_map="server1:node1;server2:node2" op monitor interval=30s
    注: 映射规则 "主机名: 域名"中间用; 隔开
    需要打开stonith 的开关
    pcs property set stonith-enabled=true
    通过pcs property list 查看是否打开
    在这里插入图片描述
  1. 此时资源在server1节点上, 在server2通过fence_xvm -H node1使server1主机重启, 可以使资源漂移到server2节点上在这里插入图片描述在这里插入图片描述
  1. 当高可用节点重启之后,如果发生抢占资源的现象可以通过pcs resource defaults resource-stickiness=100 来起到不发生抢占资源的现象

这篇关于利用pcs +pacemaker +corosync 实现(HA)高可用集群的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/607588

相关文章

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3