lvs + keepalived高可用负载均衡集群双主实现

2023-12-13 08:38

本文主要是介绍lvs + keepalived高可用负载均衡集群双主实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

项目说明

1,使用 LVS 负载均衡用户请求到后端 web 服务器,并且实现健康状态检查         

2,使用 keepalived 高可用 LVS ,避免 LVS 单点故障         

3,集群中分别在 LK-01  LK-02 运行一个 VIP 地址,实现 LVS 双主         

4,用户通过 DNS 轮训的方式实现访问集群的负载均衡(不演示)         

环境拓扑

环境介绍


IP 地址

功能描述

LK-01

172.16.4.100

调度用户请求到后端 web 服务器,并且和 LK-02 互为备份

LK-02

172.16.4.101

调度用户请求到后端 web 服务器,并且和 LK-01 互为备份

WEB-01

172.16.4.102

提供 web 服务

WEB-02

172.16.4.103

提供 web 服务

DNS

172.16.4.10

实现 DNS 轮训解析用户请求域名地址

VIP1

172.16.4.1

用户访问集群的入口地址,可能在 LK-01 ,也可能在 LK-02

VIP2

172.16.4.2

用户访问集群的入口地址,可能在 LK-01 ,也可能在 LK-02

 

环境配置

后端 WEB 服务器配置

Web 服务器的配置极其简单,只需要提供测试页面启动 web 服务即可,配置如下:

Web-01 配置

1
2
[root@WEB-01 ~] # echo "web-01" >/var/www/html/index.html
[root@WEB-01 ~] # service httpd start

Web-02 配置

1
2
[root@WEB-02 ~] # echo "web-02" >/var/www/html/index.html
[root@WEB-02 ~] # service httpd start

LVS 访问后端 web 服务器,验证 web 服务提供成功

1
2
3
4
[root@LK-01 ~] # curl 172.16.4.102
web-01
[root@LK-01 ~] # curl 172.16.4.103
web-02

出现设置的页面,就说明网络服务是正常

 

WEB 服务器使用脚本进行配置 LVS-DR 模式客户端环境

由于是双主模式,客户端需要启用两个子接口配置两个VIP地址。

#!/bin/bash
#
vip1=172.16.4.1
vip2=172.16.4.2interface1="lo:0"
interface2="lo:1"case $1 in
start)echo 1> /proc/sys/net/ipv4/conf/all/arp_ignoreecho 1> /proc/sys/net/ipv4/conf/lo/arp_ignoreecho 2> /proc/sys/net/ipv4/conf/all/arp_announceecho 2> /proc/sys/net/ipv4/conf/lo/arp_announceifconfig$interface1 $vip1 broadcast $vip1 netmask 255.255.255.255 upifconfig$interface2 $vip2 broadcast $vip2 netmask 255.255.255.255 uproute add-host $vip1 dev $interface1route add-host $vip2 dev $interface2;;stop)echo 0 >/proc/sys/net/ipv4/conf/all/arp_ignoreecho 0 >/proc/sys/net/ipv4/conf/lo/arp_ignoreecho 0 >/proc/sys/net/ipv4/conf/all/arp_announceecho 0 >/proc/sys/net/ipv4/conf/lo/arp_announceifconfig$interface1 downifconfig$interface2 down;;status)if ifconfiglo:0 |grep $vip1 &> /dev/null; thenecho"ipvs1 is running."elseecho"ipvs1 is stopped."fiif ifconfiglo:1 |grep $vip2 &> /dev/null; thenecho"ipvs2 is running."else echo"ipvs2 is stopped."fi   ;;*)echo"Usage: `basename $0` {start|stop|status}"exit 1
esac



LVS + keepalived 设置

Keepalived 安装

Centos6.6 已经收录了 keepalived ,直接使用 yum 安装即可

[root@LK-01 ~]# yum -y install keepalived
[root@LK-02 ~]# yum -y install keepalived


HK-01节点配置

[root@LK-01 ~]# vim /etc/keepalived/keepalived.conf
global_defs {router_idLVS_DEVEL
}vrrp_script chk_mt_down {script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"   #定义一个脚本,判断down文件是否存在,存在就退出执行,不存在继续执行interval 1     #1秒检测一次weight -5      #如果down文件存在,VRRP实例优先级减5
}vrrp_instance VI_1 {    #定义VRRP热备实例state MASTER     #MASTER表示主节点interfaceeth 0   #承载VIP的物理接口virtual_router_id 51  #虚拟路由器的ID号priority 100     #优先级advert_int 1       #通知间隔秒数(心跳频率)authentication {   #设置主备节点直接的认证信息auth_type PASS  #auth_pass asdfgh #}virtual_ipaddress {  #设置集群中的VIP地址172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0}track_script {chk_mt_down  #调用上面定义的脚本,如果这里没有调用,那么上面定义的脚本是无法生效的}
}vrrp_instance VI_2 {   #定义实例为HK-02的备份节点state BACKUPinterfaceeth 0virtual_router_id 52 priority 99         #设置优先级,低于主服务器 advert_int 1authentication {auth_type PASSauth_pass qwerty}virtual_ipaddress {172.16.4.2}track_script {chk_mt_down}
}virtual_server 172.16.4.1 80 {    #定义一个VIP地址和端口delay_loop 6lb_algo rr          #轮训算法lb_kind DR          #调度类型   nat_mask 255.255.0.0
#   persistence_timeout 50        #设置长连接时长,单位秒protocolTCPreal_server 172.16.4.102 80 { #定义后端RS服务器的相关信息weight 1        #设置权重HTTP_GET {       #设置健康状态检测方式url {      #健康检查判断后端服务器首页是否访问正常(返回200状态码),如果正常则认为服务器正常path /index.html  status 200}connect_timeout 3    #连接超时nb_get_retry 3    #重试次数delay_before_retry 1 #重试时间间隔}}real_server 172.16.4.103 80 {weight 1HTTP_GET {url {path /index.htmlstatus_code 200}connect_timeout 3nb_get_retry 3    delay_before_retry 1}
}
}virtual_server 172.16.4.2 80 {delay_loop 6lb_algo rr lb_kind DRnat_mask 255.255.0.0
#   persistence_timeout 50protocol TCPreal_server 172.16.4.102 80 {weight 1HTTP_GET {url {path /index.htmlstatus 200}connect_timeout 3nb_get_retry 3delay_before_retry 1}}real_server 172.16.4.103 80 {weight 1HTTP_GET {url {path /index.htmlstatus_code 200}connect_timeout 3nb_get_retry 3delay_before_retry 1}
}
}


LK-02节点设置

LK-02节点设置中的参数在LK-01节点都有注释

[root@LK-02 ~]# vim /etc/keepalived/keepalived.conf
global_defs {router_idLVS_DEVEL
}vrrp_script chk_mt_down {script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"interval 1weight -5
}vrrp_instance VI_1 {state BACKUPinterfaceeth 0virtual_router_id 51priority 99advert_int 1authentication {auth_type PASSauth_pass asdfgh}virtual_ipaddress {172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0}track_script {chk_mt_down}
}
vrrp_instance VI_2 {state MASTERinterfaceeth 0virtual_router_id 52priority 100advert_int 1authentication {auth_type PASSauth_pass qwerty}virtual_ipaddress {172.16.4.2}track_script{chk_mt_down}
}virtual_server 172.16.4.1 80 {delay_loop 6lb_algo rrlb_kind DRnat_mask 255.255.0.0
#   persistence_timeout 50protocol TCPreal_server 172.16.4.102 80 {weight 1HTTP_GET{url {path /index.htmlstatus_code 200}connect_timeout 3nb_get_retry 3delay_before_retry 1}
}
real_server 172.16.4.103 80 {weight 1HTTP_GET{url {path /index.htmlstatus 200}connect_timeout 3nb_get_retry 3delay_before_retry 1}}
}virtual_server 172.16.4.2 80 {delay_loop 6lb_algo rrlb_kind DRnat_mask 255.255.0.0
#   persistence_timeout 50protocol TCPreal_server 172.16.4.102 80 {weight 1HTTP_GET{url {path /index.htmlstatus_code 200}connect_timeout 3   nb_get_retry 3     delay_before_retry 1 }
}
real_server 172.16.4.103 80 {weight 1HTTP_GET{url {path /index.htmlstatus 200}connect_timeout 3  nb_get_retry 3     delay_before_retry 1 }}
}


设置完成启动 keepalived

[root@LK-01 ~]# service keepalived start
[root@LK-02 ~]# service keepalived start


验证

Vip 地址和集群规则验证

LK-01 查看,VIP地址启动正常,而且ipvs命令自动设置成功

[root@LK-01 ~]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ffinet172.16.4.100/16 brd 172.16.255.255 scope global eth0inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0   inet6fe80::20c:29ff:fe22:c5c2/64 scope linkvalid_lft forever preferred_lft forever
[root@LK-01 ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags->RemoteAddress:Port           ForwardWeight ActiveConn InActConn
TCP 172.16.4.1:80 rr->172.16.4.102:80              Route   1     0          0        ->172.16.4.103:80              Route   1     0          0        
TCP 172.16.4.2:80 rr->172.16.4.102:80              Route   1     0          0        ->172.16.4.103:80              Route   1     0          0


LK-02 查看,VIP和ipvs策略都有

[root@LK-02 ~]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000link/ether 00:0c:29:f1:dd:b2 brd ff:ff:ff:ff:ff:ffinet172.16.4.101/16 brd 172.16.255.255 scope global eth0inet172.16.4.2/32 scope global eth0inet6fe80::20c:29ff:fef1:ddb2/64 scope linkvalid_lft forever preferred_lft forever
[root@LK-02 ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags->RemoteAddress:Port           ForwardWeight ActiveConn InActConn
TCP 172.16.4.1:80 rr->172.16.4.102:80              Route   1     0          0        ->172.16.4.103:80              Route   1     0          0        
TCP 172.16.4.2:80 rr->172.16.4.102:80              Route   1     0          0        ->172.16.4.103:80              Route   1     0          0


负载均衡验证

无论访问 vip1 还是 vip2 都已经实现了负载均衡功能

[root@localhost ~]# curl 172.16.4.1
web-02
[root@localhost ~]# curl 172.16.4.1
web-01
[root@localhost ~]# curl 172.16.4.1
web-02
[root@localhost ~]# curl 172.16.4.1
web-01
[root@localhost ~]# curl 172.16.4.2
web-02
[root@localhost ~]# curl 172.16.4.2
web-01
[root@localhost ~]# curl 172.16.4.2
web-02
[root@localhost ~]# curl 172.16.4.2
web-01


 

高可用验证

使用 down 文件关闭 LK-02 节点

[root@LK-02 ~]# touch /etc/keepalived/down


查看 LK-01 节点的 VIP 地址,发现 VIP1  VIP2 都已经在 LK-01 节点启动了

[root@LK-01 ~]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ffinet172.16.4.100/16 brd 172.16.255.255 scope global eth0inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0inet172.16.4.2/32 scope global eth0inet6fe80::20c:29ff:fe22:c5c2/64 scope linkvalid_lft forever preferred_lft forever


集群访问正常

[root@localhost ~]# curl 172.16.4.1
web-02
[root@localhost ~]# curl 172.16.4.1
web-01
[root@localhost ~]# curl 172.16.4.2
web-02
[root@localhost ~]# curl 172.16.4.2
web-01


健康检测验证

手动关闭 web-02 节点

[root@WEB-02 ~]# service httpd stop


查看集群规则设置,已经自动移除了web-02节点

[root@LK-01 ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags->RemoteAddress:Port           ForwardWeight ActiveConn InActConn
TCP 172.16.4.1:80 rr->172.16.4.102:80              Route   1     0          1        
TCP 172.16.4.2:80 rr->172.16.4.102:80              Route   1     0          1 
[root@LK-02 ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags->RemoteAddress:Port           ForwardWeight ActiveConn InActConn
TCP 172.16.4.1:80 rr->172.16.4.102:80              Route   1     0          0        
TCP 172.16.4.2:80 rr->172.16.4.102:80              Route   1     0          0


这篇关于lvs + keepalived高可用负载均衡集群双主实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/487806

相关文章

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3