本文主要是介绍Redhat7.9/Centos7.9配置双网卡bonding,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
一、网卡bonding及其7种模式简介:
1、网卡bonding:
一台服务器如果只有一块网卡,当这块网卡故障时,服务器网络就会瘫痪。bonding(绑定)是一种Linux系统下的网卡绑定技术,是Linux系统内核层面实现的,它是一个内核模块(驱动),可以把服务器上N块物理网卡在系统内部抽象(绑定)成一块逻辑上的网卡,共用一个IP,能够提升网络吞吐量,实现网络冗余、负载等功能。
2、bonding的7种模式:
(1)mode=0:balance-rr,即balancing round-robin,平衡轮询模式(默认模式)。数据包在每块slave网卡上都进行数据传输,该模式提供了数据的负载均衡和容错能力,需要交换机(Switch)的配置。该模式下所绑定的网卡的IP都被修改成相同的MAC地址,交换机做了聚合后,聚合下的几个端口也被捆绑成一个MAC地址。
(2)mode=1,active-backup,即主备模式。一块网卡处于active状态,另一块处于standby状态。所有流量都在active链路上处理,当活跃网卡down掉时,启用备用网卡。该模式提供容错能力,且不需要配置交换机。该模式只有一块网卡工作,对外只有一个MAC地址,端口利用率比较低。
(3)mode=2:balance-xor,即平衡模式。基于指定的传输HASH策略传输数据包,该模式提供负载均衡和容错能力。
(4)mode=3:broadcast,即广播模式。所有数据包从所有网络接口发出,该模式只有冗余能力,过于浪费资源。
(5)mode=4:IEEE 802.3ad,即动态链路聚合模式。根据802.3ad标准利用所有的slave网卡建立聚合链路,每块slave网卡需要支持ethtool获取速率和双工状态,交换机经过特定配置后需要支持802.3ad模式。
(6)mode=5:balance-tlb,即transmit load balancing,适配器传输负载均衡模式。每块slave网卡根据当前的负载(通过速度计算)分配外出流量,如果正在接收数据的slave出现故障,其它slave网卡将接管它的MAC地址继续接收数据。每块slave网卡需要支持ethtool获取速率,且不需要配置交换机,该模式提供负载平衡和容错能力。
(7)mode=6:balance-alb,即adaptive load balancing,适配器适应性负载均衡模式。该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡rlb(receive load balance),接收负载均衡通过ARP协商实现。每块slave网卡需要支持ethtool获取速率,且不需要配置交换机,该模式提供负载平衡和高可用能力。
说明:
a、mode=6与mode=0的区别:
mode=6:先把eth0流量占满,再占eth1、...、ethX,其中第1块网卡流量很高,第2块网卡只占了小部分流量。
mode=0:2块网卡的流量都很稳定,基本一样的带宽。
b、当mode=1、5、6时,不需要配置交换机;当mode=0、2、3、4时,需要配置交换机。
环境:本次环境为物理机,双网卡
二、配置Bonding
1、配置前准备
1、查看系统是否加载bonding模块
[root@localhost ~]# lsmod |grep bonding #无结果代表未加载Bonding模块
[root@localhost ~]#
2、关闭NetworkManager
[root@localhost ~]# systemctl stop NetworkManager
You have new mail in /var/spool/mail/root
[root@localhost ~]# systemctl disable NetworkManager
Removed symlink /etc/systemd/system/multi-user.target.wants/NetworkManager.service.
Removed symlink /etc/systemd/system/dbus-org.freedesktop.nm-dispatcher.service.
Removed symlink /etc/systemd/system/network-online.target.wants/NetworkManager-wait-online.service.
3、手动加载bonding模块
[root@localhost ~]# echo "modprobe bonding" >> /etc/sysconfig/modules/bonding.modules
[root@localhost ~]# cat /etc/sysconfig/modules/bonding.modules
[root@localhost ~]# chmod 755 /etc/sysconfig/modules/bonding.modules
4、重启系统
[root@localhost ~]# reboot
5、重启后再次验证模块是否加载
[root@racdb1 ~]# lsmod |grep bonding
bonding 152979 0
已加载
2、bonding配置
本机现有两张网卡名称分别为ens1f0,ens4f0
#注意:若服务器是物理机,可通过再接一条光纤线到交换机来加网卡,若服务器是虚拟机,则直接控制台上添加一个新的网卡即可。
若ifconfig看不到网卡,则需要进到/etc/sysconfig/network-scripts里查看具体哪块网卡是新增的,然后执行命令ifup ifcfg-xxx1、新建bond网卡配置文件
若本机之前已经配好了IP,则直接复制原有网卡配置文件为bond0
cp ifcfg-ens33 ifcfg-bond0
若是新机器,可直接创建bond0文件2、修改bond0配置文件
[root@racdb1 network-scripts]# vim ifcfg-bond0
TYPE=Bond
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPADDR=10.10.76.35
GATEWAY=10.10.76.1
NETMASK=255.255.255.0
DNS1=10.10.80.254
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
NAME=bond0
DEVICE=bond0
ONBOOT=yes
IPV4_FAILURE_FATAL=no
NM_CONTROLLED=no
BONDING_MASTER=yes
BONDING_OPTS="mode=1 miimon=100"
# mode=1:配置bonding模式1
# miimon=100:指定链路监测时间间隔,单位为毫秒。此处系统每100ms监测一次链路连接状态,如果有一条链路不通就转入另一条链路。3、修改ens1f0网卡配置文件
[root@racdb1 network-scripts]# vim ifcfg-ens1f0
TYPE=Ethernet
BOOTPROTO=static
NAME=ens1f0
DEVICE=ens1f0
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes4、修改ens4f0网卡配置文件
[root@racdb1 network-scripts]# vim ifcfg-ens4f0
TYPE=Ethernet
BOOTPROTO=static
NAME=ens4f0
DEVICE=ens4f0
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes5、重启网络
[root@racdb1 network-scripts]# systemctl restart network[root@racdb1 network-scripts]# ls -lh /proc/sys/net/ipv4/conf
说明:/proc/sys/net/ipv4/conf目录是Linux内核中的一个虚拟文件系统,用于控制和配置网络接口参数。该目录下的文件包含了各种网络接口的配置参数,如:IP地址、子网掩码、路由表、ARP缓存、MTU等。通过修改这些文件的值,可以改变网络接口的行为和性能,从而实现网络优化、安全加固等目的。6、查看bond
[root@racdb1 network-scripts]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope hostvalid_lft forever preferred_lft forever
2: ens1f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000link/ether 00:62:0b:32:e1:f0 brd ff:ff:ff:ff:ff:ffinet 10.10.76.35/24 brd 10.10.76.255 scope global ens1f0valid_lft forever preferred_lft forever
4: ens4f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000link/ether 00:62:0b:32:e1:f0 brd ff:ff:ff:ff:ff:ff
10: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000link/ether 00:62:0b:32:e1:f0 brd ff:ff:ff:ff:ff:ffinet 10.10.76.35/24 brd 10.10.76.255 scope global bond0valid_lft forever preferred_lft foreverinet 10.10.76.39/24 brd 10.10.76.255 scope global secondary bond0:1valid_lft forever preferred_lft foreverinet 10.10.76.37/24 brd 10.10.76.255 scope global secondary bond0:2valid_lft forever preferred_lft foreverinet6 fe80::262:bff:fe32:e1f0/64 scope linkvalid_lft forever preferred_lft forever可看到ens1f0,ens4f0,bond0三者mac地址是一致的
说明:a、两块物理网卡ens1f0和ens4f0无IP地址。b、bond0绑定IP地址。c、bond0与物理网卡ens1f0和ens4f0的MAC地址完全一致。7、查看bond相关信息
[root@racdb1 network-scripts]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: ens1f0
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0Slave Interface: ens1f0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:62:0b:32:e1:f0
Slave queue ID: 0Slave Interface: ens4f0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:62:0b:32:ac:c0
Slave queue ID: 0说明:a、bonding模式为active-backup。b、当前使用的物理网卡为ens1f0。c、MII:Media Independent Interface,即介质独立接口,状态均为up。
双网卡做bond后,当目前active-backup的网卡故障后,另一块网卡会自动切换,以保证网络稳定运行
这篇关于Redhat7.9/Centos7.9配置双网卡bonding的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!