IPVS-DR+heartbeat+ldirectord实现高可用负载均衡集

2024-01-11 17:32

本文主要是介绍IPVS-DR+heartbeat+ldirectord实现高可用负载均衡集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、环境 节点类型      主机名    ip地址   lvs-master    node0     eth0:192.168.32.30                           eth1:10.160.100.30  heart vip:192.168.32.21 lvs-backup    node1     eth0:192.168.32.31                           eth1:10.160.100.31  heart vip:192.168.32.21 RealServer1   node2     eth0:192.168.32.32                           eth1:10.160.100.32    RealServer2   node3     eth0:192.168.32.33                           eth1:10.160.100.33二、安装1、安装libnet [root@node1 ~]# tar -zxvf libnet-1.1.4.tar.gz [root@node1 ~]# cd libnet-1.1.4 [root@node1 libnet-1.1.4]# ./configure [root@node1 libnet-1.1.4]# make;make install #libnet是一个高层次API工具,使用heartbeat需要用到他 2、安装heartbeat [root@node1 ~]# tar -zxvf heartbeat-2.1.3.tar.gz  [root@node1 ~]# cd heartbeat-2.1.3 [root@node1 heartbeat-2.1.3]# ./ConfigureMe configure --disable-swig --disable-snmp- subagent [root@node1 heartbeat-2.1.3]# make ; make install   [root@node1 heartbeat-2.1.3]# cp doc/ha.cf doc/haresource doc/anthkeys /etc/ha.d/ #heartbeat复制样本配置文件(ha.cf、haresources、authkeys要到/etc/ha.d目录下面  [root@node1 heartbeat-2.1.3]# cp ldirectord/ldiretord.cf /etc/ha.d/   #复制ldirectord的配置文件至/etc/ha.d目录下  [root@node1 heartbeat-2.1.3]# groua dd -g 694 haclient   #添加heartbeat运行需要的haclient组  [root@node1 heartbeat-2.1.3]# useradd -u 694 -g 694 hacluster   #添加heartbeat运行需要的hacluster用户  #heartbeat的安装包中默认包含ldirectord插件,该插件主要用于管理负载均衡,为保证ldirectord可用还行安装perl-Mailtoo ls  [root@node1 ~]# yum install perl-TimeDate.noarch [root@node1 ~]# rpm -ivh perl-MailTools-2.04-1.el5.rf.noarch.rpm #安装ldirectord正常运行所需依赖工具 3、安装ipvsadm [root@node1 ~]# yum install ipvsadm.i386 [root@node1 ~]# modprobe -l | grep ipvs /lib/mo dules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_dh.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_ ftp.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_lblc.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_lblcr.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_lc.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_nq.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_rr.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_ sed.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_sh.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_wlc.ko /lib/modules/2.6.18-194.el5PAE/kernel/net/ipv4/ipvs/ip_vs_wrr.ko #查看内核是否加载ipvs模块 三、配置ldirectord [root@node1 ~]# vim /etc/ha.d/ldirectord.cf check timeout=3   #检测超时时间checkinterval=1  #检测时间autoreload=yes   #配置文件改动时是否自动加载log file="/var/log/ldirectord.log"    # ldirectord日志路径quiescent=yes    #检测到real server异常后是否保留该real server的配置 virtual=192.168.32.21:80                 #VIP         real=192.168.32.32:80 gate #Real Server1         real=192.168.32.33:80 gate #Real Server2         service=http         request="test.html"              #要求 httpd根下必须存在test.html文件且内容为receive参数所定义        receive="test"         virtualhost=httpd       #随意定义        scheduler=rr            #LVS负载算法,rr:轮询 persistent=600          #连接会话保持时间        proto col=tcp                   checktype=negotiate     #通过交互来判断服务是否正常        checkport=80   [root@node1 ~]# scp /etc/ha.d/ldirectord node0:/etc/ha.d/ldirectord #确保两lvs主机(node0和node1)ldirectord.cf文件内容完全一样 四、heartbeat(两台lvs服务器node0和node1配置完全一样)1、heartbeat主配置文件(/etc/ha.d/ha.cf) [root@node1 ha.d]# vim /etc/ha.d/ha.cf #debugfile /var/log/ha-debug   logfile /var/log/ha-log    #指名heartbeat的日志存放位置。  #c rm yes      #是否开启Cluster Resource Manager(集群资源管理)功能。    bcast eth1    #指明心跳使用以太网广播方式,并且是在eth1接口上进行广播。    keepalive 2  #指定心跳间隔时间为2秒(即每两秒钟在eth1上发送一次广播)。    deadtime 30  #指定备用节点在30秒内没有收到主节点的心跳信号后,则立即接管主节点的服务资源。    warntime 10  #指定心跳延迟的时间为十秒。当10秒钟内备份节点不能接收到主节点的心跳信号时,就会往日志中写入一个警告日志,但此时不会切换服务。    initdead 120   #在某些系统上,系统启动或重启之后需要经过一段时间网络才能正常工作,该选项用于解决这种情况产生的时间间隔。取值至少为deadtime的两 倍。     udpport 694   #设置广播通信使用的端口,694为默认使用的端口号。     #baud 19200    #设置串行通信的波特率。   #serial /dev/ttyS0   #选择串行通信设备,用于双机使用串口线连接的情况。如果双机使用以太网。     #ucast eth0 192.168.1.2 #采用网卡eth1的udp单播来组织心跳,后面跟的IP地址应为双机对方的IP地址。    # mcast eth0 225.0.0.1 694 1 0 #采用网卡eth0的Udp多播来组织心跳,一般在备用节点不止一台时使用。Bcast、ucast和mcast分别代表广播、单播和多播,是组织心跳的三种方式,任选其一即可。 auto_failback on  #用来定义当主节点恢复后,是否将服务自动切回,heartbeat的两台主机分别为主节点和备份节点。主节点在正常情况下占用资源并运行所有的服务,遇到故障时把资源交给备份节点并由备份节点运行服务。在该选项设为on的情况下,一旦主节点恢复运行,则自动获取资源并取代备份节点,如果该选项设置为off,那么当主节点恢复后,将变为备份节点,而原来的备份节点成为主节点。     #stonith baytech /etc/ha.d/conf/stonith.baytech    # stonith的主要作用是使出现问题的节点从集群环境中脱离,进而释放集群资源,避免两个节点争用一个资源的情形发生。保证共享数据的安全性和完整性。     #watchdog /dev/watchdog  #该选项是可选配置,是通过Heartbeat来监控系统的运行状态。使用该特性,需要在内核中载入"softdog"内核模块,用来生成实际的设备文件,如果系统中没有这个内核模块,就需要指定此模块,重新编译内核。编译完成输入" insmod softdog"加载该模块。然后输入"grep misc /proc/devices"(应为10),输入" cat /proc/misc |grep watchdog"(应为130)。最后,生成设备文件:"mknod /dev/watchdog c 10 130" 。即可使用此功能。 node node0   #主节点主机名,可以通过 命令“uanme –n”查看。  node node1   #备用节点主机名。    ping 192.168.32.254 #选择ping的节点,ping 节点选择的越好,HA集群就越强壮,可以选择固定的路由器作为ping节点,但是最好不要选择集群中的成员作为ping节点 ,ping节点仅仅用来测试网络连接。     #ping_group group1 192.168.12.251 192.168.12.239   #类似于ping。     #respawn hacluster /usr/local/ha/lib/heartbeat/ipfail   #apiauth pingd g id=haclient uid=hacluster  apiauth pingd gid=root uid=root   respawn hacluster /usr/local/ha/lib/heartbeat/pingd -m 100 -d 5s  #该选项是可选配置,列出与heartbeat一起启动和关闭的进程,该进程一般是和heartbeat集成的插件,这些进程遇到故障可以自动重新启动。最常用的进程是pingd,此进程用于检测和监控网卡状态,需要配合ping语句指定的ping node来检测网络的连通性。其中hacluster表示启动pingd进程的身份。   #下面的配置是关键,也就是激活crm管理,开始使用v2 style格式    crm respawn    #注意,还可以使用crm yes的写法,但这样写的话,如果后面的cib.xml配置有问题   #会导致heartbeat直接重启该服务器,所以,测试时建议使用respawn的写法     #下面是对传输的数据进行 压缩,是可选项  compression     bz2   compression_threshold 2   #注意,v2 style不支持ipfail功能,须使用pingd代替     [root@node1 ~]# scp /etc/ha.d/ha.cf node0:/etc/ha.d/ha.cf #拷贝主配置文件到node0上 2、认证文件(/etc/ha.d/authkeys) [root@node1 resource.d]# vim /etc/ha.d/authkeys auth 1 1 crc #2 sha1 HI! #3 md5 Hello!   #authkeys文件用于设定heartbeat的认证方式,共有三种可用的认证方式:crc、md5和sha1,三种认证方式的安全性依次提高,但是占用的系统资源也依次增加。如果heartbeat集群运行在安全的网络上,可以使用crc方式,如果HA每个节点的硬件配置很高,建议使用sha1,这种认证方式安全级别最高,如果是处于网络安全和系统资源之间,可以使用md5认证方式。无论auth后面指定的是什么数字,在下一行必须作为关键字再次出现,例如指定了“auth 6”,下面一定要有一行“6 认证类型”。最后确保这个文件的权限是600(即-rw-------)。  [root@node1 ~]# scp /etc/ha.d/authkeys node0:/etc/ha.d/authkeys #拷贝认证文件到node0上 3、资源文件[root@node1 ~]# vim /etc/ha.d/haresources node0 IPaddr2::192.168.32.21/24/eth0 ldirectord::ldirectord.cf LVSSy ncDaemonSwap::master #添加VIP,通过ldirectord启动lvs配置  #haresources文件用于指定双机系统的主节点、集群IP、子网掩码、广播地址以及启动的服务等集群资源,文件每一行可以包含一个或多个资源脚本名,资源之间使用空格隔开,参数之间使用两个冒号隔开,在两个HA节点上该文件必须完全一致,此文件的一般格式为:node-name network  <resource-group>  #node-name表示主节点的主机名,必须和ha.cf文件中指定的节点名一致,network用于设定集群的IP地址、子网掩码、网络设备标识等,需要注意的是,这里指定的IP地址就是集群对外服务的IP地址,resource-group用来指定需要heartbeat托管的服务,也就是这些服务可以由heartbeat来启动和关闭,如果要托管这些服务,必须将服务写成可以通过start/stop来启动和关闭的脚步,然后放到/etc/init.d/或者/etc/ha.d/resource.d/目录下,heartbeat会根据脚本的名称自动去/etc/init.d或者/etc/ha.d/resource.d/目录下找到相应脚步进行启动或关闭操作。  [root@node1 ~]# scp /etc/ha.d/haresources node0:/etc/ha.d/haresources #拷贝资源文件到node0上 五、RealServer(node2和node3)配置1、生成负载均衡VIP脚本(node2和node3一样)[root@node2~] # vim /etc/rc.d/init.d/lvsrs   # #!/bin/bash #discription : Start Real Server VIP=192.168.32.21 . /etc/rc.d/init.d/functions case "$1" in   start)   echo "Start LVS of Real Server" /sbin/ ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up   echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore   echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce   echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore   echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce   ;;   stop) /sbin/ifconfig lo:0 down   echo "Close LVS of Director Server"    echo "0" > /proc/sys/net/ipv4/conf/lo/arp_ignore   echo "0" > /proc/sys/net/ipv4/conf/lo/arp_announce   echo "0" > /proc/sys/net/ipv4/conf/all/arp_ignore   echo "0" > /proc/sys/net/ipv4/conf/all/arp_announce   ;;   *)   echo "Usage : $0 {start|stop}"   exit 1 esac   [root@node2~] # chmod a+x /etc/rc.d/init.d/lvsrs   #给脚本增加可执行权限,然后启动并设置为开机启动: 2、生成测试文件[root@node2~] # echo "test"> /var/www/html/test.html  #ldirectord测试页,文件名和内容与ldirectord.cf中定义一样[root@node2~] # echo "I am node2; My Ip:10.160.100.32"> /var/www/html/index.html   [root@node3~] # echo "test"> /var/www/html/test.html  #ldirectord测试页,文件名和内容与ldirectord.cf中定义一样[root@node3~] # echo "I am node3; My Ip:10.160.100.33"> /var/www/html/index.html  六、启动测试1、启动服务[root@node0 ~]# service heartbeat start [root@node0 ~]# chkconfig heartbeat on [root@node1 ~]# service heartbeat start [root@node1 ~]# chkconfig heartbeat on   [root@node2 ~]# service lvsrs start [root@node2 ~]# chkconfig lvsrs on [root@node2 ~]# service httpd start [root@node2 ~]# chkconfig httpd on   [root@node3 ~]# service lvsrs start [root@node3 ~]# chkconfig lvsrs on [root@node3 ~]# service httpd start [root@node3 ~]# chkconfig httpd on 2、测试[root@node0 ~]# ip addr show | grep 192.168.32.21     inet 192.168.32.21/24 brd 192.168.32.255 scope global secondary eth0 #node0的eth0网口已经添加vip   [root@node0 ~]# ipvsadm - lnIP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn TCP  192.168.32.21:80 rr   -> 192.168.32.32:80             Route   1      0          1            -> 192.168.32.33:80             Route   1      0          1        #node0的lvs配置生效  [root@node0 ~]# iptables -A OUTPUT -d 192.168.32.254 -p i cmp -j REJECT  #人为断开网络  [root@node1 ~]# ipvsadm -ln IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags   -> RemoteAddress:Port           Forward Weight ActiveConn InActConn TCP  192.168.32.21:80 rr   -> 192.168.32.32:80             Route   1      0          0            -> 192.168.32.33:80             Route   1      0          0          #lvs自动切换到node1上,说明heartbeat双机机制成功 realserver配置测试略,通过ie访问可得到web内容再2s轮询方式切换 http://www.linuxso.com/fuzai/17706.html

这篇关于IPVS-DR+heartbeat+ldirectord实现高可用负载均衡集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/595151

相关文章

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略 1. 特权模式限制2. 宿主机资源隔离3. 用户和组管理4. 权限提升控制5. SELinux配置 💖The Begin💖点点关注,收藏不迷路💖 Kubernetes的PodSecurityPolicy(PSP)是一个关键的安全特性,它在Pod创建之前实施安全策略,确保P

工厂ERP管理系统实现源码(JAVA)

工厂进销存管理系统是一个集采购管理、仓库管理、生产管理和销售管理于一体的综合解决方案。该系统旨在帮助企业优化流程、提高效率、降低成本,并实时掌握各环节的运营状况。 在采购管理方面,系统能够处理采购订单、供应商管理和采购入库等流程,确保采购过程的透明和高效。仓库管理方面,实现库存的精准管理,包括入库、出库、盘点等操作,确保库存数据的准确性和实时性。 生产管理模块则涵盖了生产计划制定、物料需求计划、

C++——stack、queue的实现及deque的介绍

目录 1.stack与queue的实现 1.1stack的实现  1.2 queue的实现 2.重温vector、list、stack、queue的介绍 2.1 STL标准库中stack和queue的底层结构  3.deque的简单介绍 3.1为什么选择deque作为stack和queue的底层默认容器  3.2 STL中对stack与queue的模拟实现 ①stack模拟实现