mfs master高可用

2024-05-13 07:38
文章标签 可用 master mfs

本文主要是介绍mfs master高可用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

包含 4 种角色:
管理服务器 managing server (master)
元数据日志服务器 Metalogger server(Metalogger)
数据存储服务器 data servers (chunkservers)
客户机挂载使用 client computers


架构图
read862.png

write862.png

可以看出master就像指挥官,负责调度,很关键


1. 管理服务器:负责各个数据存储服务器的管理,文件读写调度,文件空间回收以及恢复.多节点拷
贝。
2. 元数据日志服务器: 负责备份 master 服务器的变化日志文件,文件类型为
changelog_ml.*.mfs,以便于在 master server 出问题的时候接替其进行工作。
3. 数据存储服务器:负责连接管理服务器,听从管理服务器调度,提供存储空间,并为客户提供数
据传输。
4. 客户端: 通过 fuse 内核接口挂接远程管理服务器上所管理的数据存储服务器,看起来共享的文
件系统和本地 unix 文件系统使用一样的效果。

原始的读/写速度很明显是主要取决于所使用的硬盘的性能、网络的容量和拓扑结构的,使用的硬
盘和网络的吞吐量越好,整个系统的性能也就会越好。

    
mfs优势:
-1. Free(GPL)
0. 通用文件系统,不需要修改上层应用就可以使用(那些需要专门api的dfs好麻烦哦!)。
1.
可以在线扩容,体系架构可伸缩性极强。(官方的case可以扩到70台了!)
2. 部署简单。(sa们特别高兴,领导们特别happy!)
3. 体系架构高可用,所有组件无单点故障。(您还等什么?)
4.文件对象高可用,可设置任意的文件冗余程度(提供比raid1+0更高的冗余级别),而绝对不会影响读或者写的性能,只会加速哦!)
5. 提供Windows回收站的功能.(不怕误操作了,提供类似oralce 的闪回等高级dbms的即时回滚特性,oralce这些特性可是收费的哦!)
6. 提供类似Java语言的 GC(垃圾回收).
7. 提供netapp,emc,ibm等商业存储的snapshot特性。
8. google filesystem的一个c实现。(google在前面开路哦!)
9. 提供web gui监控接口。
10. 提高随机读或写的效率(有待进一步证明)。
11. 提高海量小文件的读写效率(有待进一步证明)。


(master采用keepalived+drbd实现高可用

主机环境 rhel6.5

mfsmaster 172.25.254.10

mfsbackup 172.25.254.11

VIP 是172.25.254.12

iptables disabled

selinux disabled

mfsmastermfsbackup一定要主机名解析,同时主机名也必须和主机名解析一致。

   uname -n查看你的名字~



Mfsmaster mfsbackup都做以下操作,首先安装包,这是我自己打的rpm包。

 

安装即可


 drbd配置:



vim /etc/drbd.d/mfs.res

  1 resource mfs {                                                                                              2         meta-disk internal;3         device /dev/drbd1;4         syncer {5                 verify-alg sha1;6         }7 on mfsmaster {8         disk /dev/vda1;9         address 172.25.254.10:7789;10 }11 on mfsbackup {12         disk /dev/vda1;13         address 172.25.254.11:7789;14 }15 }

安装mfs master




[root@mfsmaster etc]# cd  /etc
[root@mfsmaster etc]# mv mfsmaster.cfg.dist mfsmaster.cfg
[root@mfsmaster etc]# mv mfsexports.cfg.dist mfsexports.cfg
[root@mfsmaster etc]# mv mfsmetalogger.cfg.dist mfsmetalogger.cfg
[root@mfsmaster etc]# mv mfstopology.cfg.dist mfstopology.cfg




vim mfsmaster.cfg

 WORKING_USER = nobody2  WORKING_GROUP = nobody3  SYSLOG_IDENT = mfsmaster4  LOCK_MEMORY = 05  NICE_LEVEL = -196 7  EXPORTS_FILENAME = /etc/mfsexports.cfg8 9  TOPOLOGY_FILENAME = /etc/mfstopology.cfg10 11  DATA_PATH = /data1/drbd12 13  BACK_LOGS = 5014  BACK_META_KEEP_PREVIOUS = 115 16  REPLICATIONS_DELAY_INIT = 30017  REPLICATIONS_DELAY_DISCONNECT = 360018 19  MATOML_LISTEN_HOST = *20  MATOML_LISTEN_PORT = 941921 22  MATOCS_LISTEN_HOST = *23  MATOCS_LISTEN_PORT = 942024 25  MATOCL_LISTEN_HOST = *26  MATOCL_LISTEN_PORT = 942127 28  CHUNKS_LOOP_CPS = 10000029  CHUNKS_LOOP_TIME = 30030 31  CHUNKS_SOFT_DEL_LIMIT = 1032  CHUNKS_HARD_DEL_LIMIT = 2533  CHUNKS_WRITE_REP_LIMIT = 234  CHUNKS_READ_REP_LIMIT = 1035 36  REJECT_OLD_CLIENTS = 0


vim mfsmetalogger.cfg

  1  WORKING_USER = nobody                                                                                      2  WORKING_GROUP = nobody 3  SYSLOG_IDENT = mfsmetalogger4  LOCK_MEMORY = 05  NICE_LEVEL = -196 7  DATA_PATH = /var/lib/mfs8 9  BACK_LOGS = 5010  BACK_META_KEEP_PREVIOUS = 311  META_DOWNLOAD_FREQ = 2412 13  MASTER_RECONNECTION_DELAY = 514 15  MASTER_HOST = mfsmaster16  MASTER_PORT = 941917 18  MASTER_TIMEOUT = 60

ok 为了方便,直接把这几个文件复制到mfsbackup上就可以

[root@mfsmaster etc]# scp mfs* 172.25.254.11:/etc/
root@172.25.254.11's password: 
mfsexports.cfg                                                                100% 4060     4.0KB/s   00:00    
mfsmaster.cfg                                                                 100%  849     0.8KB/s   00:00    
mfsmetalogger.cfg                                                             100%  401     0.4KB/s   00:00    
mfstopology.cfg                                                               100% 1123     1.1KB/s   00:00

master上执行

[root@mfsmaster etc]# drbdsetup /dev/drbd1 primary --force
[root@mfsmaster etc]# mkfs.ext4 /dev/drbd1

都执行

mkdir -p /data1/drbdchown -R nobody.nobody  /data1/drbd/
[root@mfsmaster mfs]# cp /var/lib/mfs/metadata.mfs.empty /data1/drbd/
[root@mfsmaster drbd]# mv metadata.mfs.empty metadata.mfs
[root@mfsmaster drbd]# mfsmaster


ok master 已经可以正常运行了

,为了保证无误我们在backup上也测试一次。

[root@mfsmaster drbd]# mfsmaster stop
[root@mfsmaster drbd]# cd[root@mfsmaster ~]
# umount /dev/drbd1
[root@mfsmaster ~]# drbdadm secondary mfs
[root@mfsbackup drbd+mfs-rpm]# drbdadm primary mfs
[root@mfsbackup drbd+mfs-rpm]# mount /dev/drbd1 /data1/drbd/
[root@mfsbackup drbd+mfs-rpm]# mfsmaster

这个时候我们的master端已经全线部署完成,接下来我们要实现他的高可用,这个很重要

首先说明,我使用自己的方法很简单的实现主断备启,但是是一次性的,也就是说,只支持一次主的mfsmaster断了,backup可以接替,并不能来回。需要手工操作。

脚本写的简单后续有时间修改,网上有很多成品的,虽然很菜还是写自己的。。

同样是keepalived +drbd大神们都是全自动的

我这其实是一次性的但是轻量简单呗。

  1. 安装keepalived 两端执行:

yum install gcc openssl-devel popt-devel -y./configure --prefix=/usr/local/keepalived
[root@mfsmaster keepalived-1.2.8]# make && make install 
[root@mfsmaster ~]# ln -s /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
[root@mfsmaster ~]# ln -s /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
[root@mfsmaster ~]# ln -s /usr/local/keepalived/etc/keepalived /etc/
[root@mfsmaster ~]# ln -s /usr/local/keepalived/sbin/keepalived /usr/sbin
[root@mfsmaster ~]# vim /etc/keepalived/keepalived.conf
  1 ! Configuration File for keepalived2 3 global_defs {4    notification_email {5      576786031@qq.com6    }7    notification_email_from zabbix@server2.com8    smtp_server 172.25.254.29    smtp_connect_timeout 3010    router_id mfs_master11 }12 vrrp_script check_drbd {13         script "/etc/keepalived/check_drbd.sh"14             interval 15     15     }16 vrrp_instance mfs {17     state MASTER18     interface eth019     virtual_router_id 51                                                                                                                                                 20     priority 15021     advert_int 122     authentication {23         auth_type PASS24         auth_pass 111125     }26     virtual_ipaddress {27         172.25.254.12 //VIP28     }29     track_script {30         check_drbd31         }}
~

    [root@mfsmaster keepalived]# vim check_drbd.sh 

  1 /bin/bash: Configuration: command not found2 # File Name: check_drbd.sh3 # Author: dty4 # mail: 576786031@qq.com5 # Created Time: Sun 02 Aug 2015 01:32:43 PM CST6 #########################################################################7 #!/bin/bash    8 A=`ps -C mfsmaster --no-header |wc -l`9 if [ $A -eq 0 ];then10     umount /data1/drbd/11     drbdadm secondary mfs12     killall keepalived     13 fi               14
mfsbackup 上      cd /etc/keepalived写两个脚本 master.sh backup.sh
    [root@mfsbackup keepalived]# cat backup.sh master.sh 
#!/bin/bash
mfsmaster stop
umount /dev/drbd1
drbdadm secondary mfs
#########################################################################
# File Name: master.sh
# Author: dty
# mail: 576786031@qq.com
# Created Time: Sun 02 Aug 2015 01:38:12 PM CST
#########################################################################
#!/bin/bash
drbdadm primary mfs
mount /dev/drbd1 /data1/drbd
mfsmaster start

vim /etc/keepalived.conf

  1 ! Configuration File for keepalived2   3 global_defs { 4    notification_email { 5      576786031@qq.com6    }      7    notification_email_from zabbix@server2.com8    smtp_server 172.25.254.2 9    smtp_connect_timeout 3010    router_id mfs_master11 }       12 vrrp_instance mfs {13     state BACKUP   14     interface eth015     virtual_router_id 5116     priority 8017     advert_int 118     authentication {19         auth_type PASS20         auth_pass 111121     }22     virtual_ipaddress {23         172.25.254.12 //VIP24     }25 notify_master /etc/keepalived/master.sh26 notify_backup /etc/keepalived/backup.sh27 }       
~

                                                                                                                                  
~                           

此时我们可以实验了

开启mfsmaster,

开启keepalived

                       


                         

mfsbackup上也启动 keepalived

[root@mfsbackup keepalived]# /etc/init.d/keepalived start

   

我们把主上的mfsmaster关掉


可以看到vip已经没了,转移到了备机上


服务已经完美转移了

这个时候我们来搞定客户端和chunkserver的安装

  yum localinstall mfs-chunkserver-1.6.26-1.x86_64.rpm -y

 mv mfschunkserver.cfg.dist mfschunkserver

mkdir -p /data1/mfs //设置个目录存放数据

chown nobody.nobody /data1/mfs

 

 vim /etc/mfschunkserver

  1  WORKING_USER = nobody                                                      2  WORKING_GROUP = nobody 3  SYSLOG_IDENT = mfschunkserver4  LOCK_MEMORY = 05  NICE_LEVEL = -196 7  DATA_PATH = /data1/mfs8 9  MASTER_RECONNECTION_DELAY = 510 11  BIND_HOST = *12  MASTER_HOST = 172.25.254.12 //VIP13  MASTER_PORT = 942014 15  MASTER_TIMEOUT = 6016 17  CSSERV_LISTEN_HOST = *18  CSSERV_LISTEN_PORT = 942219 20  HDD_CONF_FILENAME = /etc/mfshdd.cfg21  HDD_TEST_FREQ = 10

设置chunk存放路径

[root@server7 ~]# cat /etc/mfshdd.cfg
# mount points of HDD drives
#
#/mnt/hd1
#/mnt/hd2
#etc.
/data1/mfs/

chunkserver已经部署完成了有多个以此类推就好了.

下来就是客户端的安装及使用了

# yum localinstall -y mfs-client-1.6.26-1.x86_64.rpm
# cd /etc# cp mfsmount.cfg.dist mfsmount.cfg
# vi mfsmount.cfg定义客户端默认挂载mfsmaster=mfsmaster/mnt/mfs# mfsmount
[root@server4 ~]# df -h Filesystem                    Size  Used Avail Use% Mounted on/dev/mapper/VolGroup-lv_root  6.7G  978M  5.4G  16% /tmpfs                         499M     0  499M   0% /dev/shm/dev/sda1                     485M   33M  427M   8% /boot172.25.254.12:9421             16G     0   16G   0% /mnt/mfs

 inodes with permission denied:          0

[root@server4 mfs]# cp /etc/passwd leaf1
[root@server4 mfs]# cp /etc/passwd leaf2
[root@server4 mfs]#  mfsfileinfo leaf1/passwd
leaf1/passwd:chunk 0: 0000000000000008_00000001 / (id:8 ver:1)copy 1: 172.25.254.7:9422
[root@server4 mfs]#  mfsfileinfo leaf2/passwd
leaf2/passwd:chunk 0: 0000000000000009_00000001 / (id:9 ver:1)copy 1: 172.25.254.8:9422copy 2: 172.25.254.9:9422
ok 效果就这样粗来了

其他的mfs的使用这里不做赘述,主要为了验证我们的高可用机制是否可行,就到这里了

ps:当出现问题调转到backup后,如果主的正常了,我们手动切换必须遵守以下步骤

  1. 停掉mfsmaster服务

     mfsmaster stop

          umount /dev/drbd1

         drbdadm secondary mfs

  1. 主机:

    1.drbdadm  primary mfs

        2.mount /dev/drbd1 /data1/drbd

        3.mfsmaster start

        4.keepalived start

还有要提到的就是可能会出现脑裂,这一般时操作不按顺序,也可能有其他原因,下面是网上大神写的,

脑裂的处理方法





drbd1主,drbd2辅

 

1,正常情况下状态:[root@drbd1 ~]# cat /proc/drbd version: 8.3.8 (api:88/proto:86-94): 299AFE04D7AFD98B3CA0AF9 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r----ns:2144476 nr:0 dw:36468 dr:2115769 al:14 bm:129 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0[root@drbd2 ~]# cat /proc/drbd version: 8.3.8 (api:88/proto:86-94)srcversion: 299AFE04D7AFD98B3CA0AF9 0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r----ns:0 nr:2141684 dw:2141684 dr:0 al:0 bm:130 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:02,drbd1故障后drbd1状态:[root@drbd1 ~]# cat /proc/drbd version: 8.3.8 (api:88/proto:86-94)srcversion: 299AFE04D7AFD98B3CA0AF9 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r----ns:4 nr:102664 dw:102668 dr:157 al:1 bm:8 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0drbd2的状态:[root@drbd2 ~]# cat /proc/drbd version: 8.3.8 (api:88/proto:86-94)srcversion: 299AFE04D7AFD98B3CA0AF9 0: cs:WFConnection ro:Secondary/Unknown ds:UpToDate/DUnknown C r----ns:0 nr:2141684 dw:2141684 dr:0 al:0 bm:130 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:03,处理方法:a,将secondary配置成primary角色[root@drbd2 ~]# drbdsetup /dev/drbd0 primary -o[root@drbd2 ~]# cat /proc/drbd version: 8.3.8 (api:88/proto:86-94)srcversion: 299AFE04D7AFD98B3CA0AF9 0: cs:WFConnection ro:Primary/Unknown ds:UpToDate/Outdated C r----ns:0 nr:2141684 dw:2141684 dr:0 al:0 bm:130 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0挂载:[root@drbd2 /]# mount /dev/drbd0 /data1[root@drbd2 data1]# lltotal 10272-rw-r--r-- 1 root root 10485760 Feb 13 11:26 aa.imgdrwx------ 2 root root    16384 Feb 13 11:25 lost+found这个时候drbd2开始提供服务,开始写数据drbd1主恢复正常后:[root@drbd1 ~]# cat /proc/drbdversion: 8.3.8 (api:88/proto:86-94)srcversion: 299AFE04D7AFD98B3CA0AF9 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r----ns:2144476 nr:0 dw:36484 dr:2115769 al:14 bm:129 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:8drbd1状态是:StandAlone,此时,drbd1是不会和drbd2互相联系的我们来查看下日志:[root@drbd1 ~]# tailf /var/log/messagesFeb 13 16:14:27 drbd1 kernel: block drbd0: helper command: /sbin/drbdadm split-brain minor-0Feb 13 16:14:27 drbd1 kernel: block drbd0: helper command: /sbin/drbdadm split-brain minor-0 exit code 0 (0x0)Feb 13 16:14:27 drbd1 kernel: block drbd0: conn( WFReportParams -> Disconnecting ) Feb 13 16:14:27 drbd1 kernel: block drbd0: error receiving ReportState, l: 4!Feb 13 16:14:27 drbd1 kernel: block drbd0: asender terminatedFeb 13 16:14:27 drbd1 kernel: block drbd0: Terminating drbd0_asenderFeb 13 16:14:27 drbd1 kernel: block drbd0: Connection closedFeb 13 16:14:27 drbd1 kernel: block drbd0: conn( Disconnecting -> StandAlone ) Feb 13 16:14:27 drbd1 kernel: block drbd0: receiver terminatedFeb 13 16:14:27 drbd1 kernel: block drbd0: Terminating drbd0_receiver脑裂出现!解决方法:1>,我们需要将现在的drbd1角色修改为secondary[root@drbd1 ~]# drbdadm secondary r0[root@drbd1 ~]# drbdadm -- --discard-my-data connect r0  ##该命令告诉drbd,secondary上的数据不正确,以primary上的数据为准。2>,我们还需要在drbd2上执行下面操作[root@drbd2 /]# drbdadm connect r0这样drbd1就能和drbd2开始连接上了,并且保证数据不会丢失:[root@drbd1 ~]# cat /proc/drbd      version: 8.3.8 (api:88/proto:86-94)srcversion: 299AFE04D7AFD98B3CA0AF9 0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r----ns:0 nr:20592 dw:20592 dr:0 al:0 bm:4 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0


ok 就这样了。 未完待续。。。。。

这篇关于mfs master高可用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/985085

相关文章

centos7基于keepalived+nginx部署k8s1.26.0高可用集群

《centos7基于keepalived+nginx部署k8s1.26.0高可用集群》Kubernetes是一个开源的容器编排平台,用于自动化地部署、扩展和管理容器化应用程序,在生产环境中,为了确保集... 目录一、初始化(所有节点都执行)二、安装containerd(所有节点都执行)三、安装docker-

Sentinel 高可用流量管理框架

Sentinel 是面向分布式服务架构的高可用流量防护组件,主要以流量为切入点,从限流、流量整形、熔断降级、系统负载保护、热点防护等多个维度来帮助开发者保障微服务的稳定性。 Sentinel 具有以下特性: 丰富的应用场景:Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填谷、集群流量控制、实时熔断下游不可用应

JAVA用最简单的方法来构建一个高可用的服务端,提升系统可用性

一、什么是提升系统的高可用性 JAVA服务端,顾名思义就是23体验网为用户提供服务的。停工时间,就是不能向用户提供服务的时间。高可用,就是系统具有高度可用性,尽量减少停工时间。如何用最简单的方法来搭建一个高效率可用的服务端JAVA呢? 停工的原因一般有: 服务器故障。例如服务器宕机,服务器网络出现问题,机房或者机架出现问题等;访问量急剧上升,导致服务器压力过大导致访问量急剧上升的原因;时间和

java线程深度解析(四)——并发模型(Master-Worker)

http://blog.csdn.net/daybreak1209/article/details/51372929 二、Master-worker ——分而治之      Master-worker常用的并行模式之一,核心思想是由两个进程协作工作,master负责接收和分配任务,worker负责处理任务,并把处理结果返回给Master进程,由Master进行汇总,返回给客

VMware8实现高可用(HA)集群

陈科肇 =========== 操作系统:中标麒麟高级操作系统V6 x86-64 实现软件:中标麒麟高可用集群软件 ======================== 1.环境的规划与配置 硬件要求 服务器服务器至少需要 2 台,每台服务器至少需要 2 块网卡以做心跳与连接公网使用存储环境 建议使用一台 SAN/NAS/ISCSI 存储作为数据共享存储空间 软

用Cri-O,Sealos CLI,Kubeadm方式部署K8s高可用集群

3.6 Cri-O方式部署K8s集群 注意:基于Kubernetes基础环境 3.6.1 所有节点安装配置cri-o [root@k8s-all ~]# VERSION=1.28[root@k8s-all ~]# curl -L -o /etc/yum.repos.d/devel:kubic:libcontainers:stable.repo https://download.opensu

xss-labs-master通关教程

一.level1 先来进行一下代码审计 <?php ini_set("display_errors", 0);//关闭错误显示$str = $_GET["name"]; //接受URL来的get形式的name传参echo "<h2 align=center>欢迎用户".$str."</h2>";//在网页输出,并不是echo执行的,而是echo把HTML代码发送到浏览器,浏览器对发送的H

Kubernetes高可用集群搭建(kubeadm)

1 Kubernetes高可用集群介绍 前面已经介绍了Kubernetes的集群部署,但是都只是介绍的单master节点的情况,由于单master节点的可靠性不高,不适合实际的生产环境,此处介绍如何实现多master节点的高可用集群的搭建。 2 安装要求 一台或多台机器,操作系统CentOS7.x-x86_64硬件配置:2G或更多ARM,2个CPU或更多CPU,硬盘20G及以上集群中所有机器

Dungeon Master -uva

一个简答的三维BFS遍历,我从中领悟到了惨痛的教训,关于栈的溢出!!! 不多说了。。郁闷 #include<stdio.h>#include<string.h>#include<stdlib.h>#define MAX_SIZE 50 + 10int Dung[MAX_SIZE][MAX_SIZE][MAX_SIZE];int time[MAX_SIZE][MAX_SIZE][M

# 高可用的并发解决方案nginx+keepalived(一)

高可用的并发解决方案nginx+keepalived(一) 段子手 一、课程计划介绍 1、课程标题 为并发量高的优质网站量身定制高可用的并发解决方案 nginx+keepalived。 2、引导语 在这个互联网飞速发展的时代,人们已经离不开网络,其中网购最为常见。在家网购,上班路上网购,吃饭也购物,下班还网购,2017年双十一天猫支付峰值达到了25.6万笔/秒。热点网站中频繁出现的大量