MongoDB高可用集群+MMS集群监控搭建

2023-12-16 02:58

本文主要是介绍MongoDB高可用集群+MMS集群监控搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录:

一、 集群的三个组件:

二、 集群架构图:

三、 集群的IP及端口规划:

四、 集群在LINUX上的目录规划:

五、 开始搭建集群:

六、 集群监控(mongodb-mms)

备注:

mongodb学习资料 http://www.runoob.com/mongodb/mongodb-tutorial.html

———————————————————————————————————————————————————-

一、 集群的三个组件:

  1. mongos(query routers):查询路由,负责client的连接,并把任务分配给shards,然后收集结果。
  2. config server:配置服务器,保存了集群的元数据信息,查询路由通过配置服务器的配置信息决定把任务分配+到哪个shards上。
  3. shards server:分片,存储数据和执行计算。

二、 集群架构图:

这里写图片描述

三、 集群的IP及端口规划:

服务192.168.141.201192.168.141.202192.168.141.203
RouterMongos(17017)Mongos(17017)
ConfigConfig server1(27017)Config server2(27017)Config server3(27017)
Shard1-主(37017)Shard2-主(47017)Shard3-主(57017)
ShardShard2-从(47017)Shard1-从(37017)Shard1-从(37017)
Shard3-从(57017)Shard3-从(57017)Shard2-从(47017)

四、 集群在LINUX上的目录规划:

这里写图片描述

五、 开始搭建集群:

1.下载软件:https://www.mongodb.com/download-center#community

这里用的版本是:mongodb-linux-x86_64-rhel62-3.2.10.tgz

2.创建目录:

mkdir -p /home/mongo/{config,router,shard}
mkdir -p /home/mongo/config/{data,logs}
mkdir -p /home/mongo/router/logs
mkdir -p /home/mongo/shard/{data,logs}
mkdir -p /home/mongo/shard/data/{shard1,shard2,shard3}

3.解压和复制:

解压文件,并将文件夹下的内容,分别复制到config/router/shard三个目录下面。

4.配置config server

1) 新建config实例启动所需的配置文件,并启动实例。【每台服务器顺序执行以下操作】

[root@mini1 ~]# cd /home/mongo/config/
[root@mini1 config]# vi mongo.config
dbpath=/home/mongo/config/data
logpath=/ home /mongo/config/logs/mongo.log
port=27017
logappend=true
fork=true
quiet=true
journal=true
configsvr=true
replSet=configRS/192.168.141.201:27017,192.168.141.202:27017,192.168.141.203:27017
##启动实例(服务端)
[root@mini1 bin]# cd /home /mongo/config/bin/
[root@mini1 bin]# ./mongod /home/mongo/config/mongo.config

2) 初始化config server。任意进入一台服务器,配置config server的副本集

[root@mini1 bin]# ./mongo –port 27017
rs.initiate({_id:”configRS”,configsvr:true,members:[{_id:1,host:”192.168.141.201:27017”,priority:2},{_id:2,host:”192.168.141.202:27017”},{_id:3,host:”192.168.141.203:27017”}]})
{ “ok” : 1 }
注:可用rs.status()查看副本集的状态

5.启动mongos server(路由服务)

[root@mini1 /]# cd /home/mongo/router/bin/
[root@mini1 bin]# ./mongos –configdb configRS/192.168.141.201:27017,192.168.141.202:27017,192.168.141.203:27017 –port 17017 –fork –logpath=/home/mongo/router/logs/mongos.log

6.配置shard server(分片服务)

1) 新建config实例启动所需的配置文件,并启动实例。每台服务器顺序执行以下操作

[root@mini1 ~]# cd /home/mongo/shard/
[root@mini1 shard]# vi shard1.config
dbpath=/ home /mongo/shard/data/shard1
logpath=/ home /mongo/shard/logs/shard1.log
port=37017
logappend=true
fork=true
quiet=true
journal=true
shardsvr=true
replSet= shard1RS/192.168.141.201:37017,192.168.141.202:37017,192.168.141.203:37017

[root@mini1 shard]# vi shard2.config
dbpath=/home/mongo/ shard /data/ shard2
logpath=/ home /mongo/ shard /logs/ shard2.log
port=47017
logappend=true
fork=true
quiet=true
journal=true
shardsvr =true
replSet= shard2RS/192.168.141.201:47017,192.168.141.202:47017,192.168.141.203:47017

[root@mini1 shard]# vi shard3.config
dbpath=/home/mongo/ shard /data/ shard3
logpath=/ home /mongo/ shard /logs/ shard3.log
port=57017
logappend=true
fork=true
quiet=true
journal=true
shardsvr =true
replSet= shard3RS/192.168.141.201:57017,192.168.141.202:57017,192.168.141.203:57017

##启动实例(服务端)第一台服务器先启动shard1,然后去第二台服务器启动shard2,再去第三台服务器启动shard3。 启动完后,每个服务器再去启动剩下的2个实例。
[root@mini1 /]# cd /home/mongo/shard/bin/
[root@mini1 bin]# ./mongod -f /home/mongo/shard/shard1.config
[root@mini1 bin]# ./mongod -f /home/mongo/shard/shard2.config
[root@mini1 bin]# ./mongod -f /home/mongo/shard/shard3.config

2) 初始化shard server。任意进入一台服务器,配置每个shard的副本集
[root@mini1 bin]# ./mongo 192.168.141.201:37017
>rs.initiate({_id:"shard1RS",members:[{_id:1,host:"192.168.141.201:37017",priority:2},{_id:2,host:"192.168.141.202:37017"},{_id:3,host:"192.168.141.203:37017"}]})
{ "ok" : 1 }[root@mini1 bin]# ./mongo 192.168.141.201:47017
>rs.initiate({_id:"shard2RS",members:[{_id:1,host:"192.168.141.202:47017",priority:2},{_id:2,host:"192.168.141.201:47017"},{_id:3,host:"192.168.141.203:47017"}]})
{ "ok" : 1 }[root@mini1 bin]# ./mongo 192.168.141.201:57017
>rs.initiate({_id:"shard3RS",members:[{_id:1,host:"192.168.141.203:57017",priority:2},{_id:2,host:"192.168.141.201:57017"},{_id:3,host:"192.168.141.202:57017"}]})
{ "ok" : 1 }

7.配置分片

[root@mini1 /]# cd /home/mongo/router/bin/
[root@mini1 bin]# ./mongo --port 17017
>use admin 
>db.runCommand({"addShard":"shard1RS/192.168.141.201:37017" ,"maxsize":1024}) 
>db.runCommand({"addShard":"shard2RS/192.168.141.202:47017" ,"maxsize":1024}) 
>db.runCommand({"addShard":"shard3RS/192.168.141.203:57017" ,"maxsize":1024})
注:可用命令db.runCommand({listshards:1}) 查看分片的状态信息

8.使用

在使用的时候,需要对数据库开启分片功能,并对数据库下的表的字段指定分片算法。
>use admin 
--对库hdctest开启分片 
>db.runCommand({"enablesharding":"hdctest"}) 
--对库hdctest下的表person按字段ID配置hash分库算法 
>db.runCommand({"shardcollection":"hdctest.person","key":{_id:'hashed'}}) 

9.其他注意

在登陆从库查看数据信息的时候,会报一个错误,如下图:
这里写图片描述
解决办法:执行命令db.getMongo().setSlaveOk()后,即可。

六、集群监控(mongodb-mms)

MongoDB的管理服务(MMS)是用于监控和备份MongoDB的基础设施服务,提供实时的报告,可视化,警报,硬件指标,并以直观的Web仪表盘展现数据。只需要安装上一个轻量级的监控代理,来收集mongodb运行信息并传回给MMS。MMS用户界面允许用户查看可视化的数据和设置警报。其中监控的服务是免费的,备份的服务是需要收费的。

1.分配一台符合MMS硬件要求的服务器.

MMS支持以下64位Linux发行版本:CentOS 5 or later,Red Hat Enterprise Linux 5, or later,SUSE 11 or Later,Amazon Linux AMI (latest version only,)Ubuntu 12.04 or later.

2.安装一个单独的mongodb复本集作为MMS应用数据库。(此步骤略)

后端mongodb数据库是单独的:MongoDB2.4.9或更高版本;后端mongodb数据库是复本集和分片集群必须运行MongoDB2.4.3或更高版本,官方建议是使用复制集。

3.安装SMTP邮件服务器

MMS依赖SMTP服务,是以电子邮件作为用户的,需要根据MMS服务器回复的邮件来进行用户注册和密码设置的,报警信息也是通过邮件来发送的。可以不用配置SMTP服务器,用第三方的即可。

4. 安装MMS应用程序包

https://www.mongodb.com/download-center#ops-manager
这里写图片描述

5. 配置MMS服务的URL、电子邮件、mongo URI连接串

修改/mms/conf/conf-mms.properties文件,以下参数必须设置:
## MMS的监控服务,完整的URL
mms.centralUrl=http://mini1:8080
## MMS备份服务的用户名和端口
mms.backupCentralUrl=http://mini1:8081
##发送一般的电子邮件
mms.fromEmailAddr=
## 发送回复到一般的电子邮件
mms.replyToEmailAddr=
## 从MMS管理员发送消息
mms.adminFromEmailAddr=
## 发送信息或回复到MMS管理员
mms.adminEmailAddr=
## 发送退回邮件
mms.bounceEmailAddr=
## MMS连接mongodb服务器的连接串,即MMS应用程序数据库
mongo.mongoUri
## 如果mongo.mongoUri使用的是复制集,需要指定复制集的名称
mongo.replicaSet

6.启动MMS服务

启动mongodb-mms服务:mongodb-mms start
这里写图片描述
至此,mms 的监控功能就安装好了。

7.访问http://mini1:8080来进行管理。

这里写图片描述

8.把已有的集群部署到MMS上。

这里写图片描述

9.部署完成后,即可看到整个集群的运行状况。

这里写图片描述

       如果您喜欢我写的博文,读后觉得收获很大,不妨小额赞助我一下,让我有动力继续写出高质量的博文,感谢您的赞赏!!!

这篇关于MongoDB高可用集群+MMS集群监控搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/498852

相关文章

流媒体平台/视频监控/安防视频汇聚EasyCVR播放暂停后视频画面黑屏是什么原因?

视频智能分析/视频监控/安防监控综合管理系统EasyCVR视频汇聚融合平台,是TSINGSEE青犀视频垂直深耕音视频流媒体技术、AI智能技术领域的杰出成果。该平台以其强大的视频处理、汇聚与融合能力,在构建全栈视频监控系统中展现出了独特的优势。视频监控管理系统EasyCVR平台内置了强大的视频解码、转码、压缩等技术,能够处理多种视频流格式,并以多种格式(RTMP、RTSP、HTTP-FLV、WebS

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3

【IPV6从入门到起飞】5-1 IPV6+Home Assistant(搭建基本环境)

【IPV6从入门到起飞】5-1 IPV6+Home Assistant #搭建基本环境 1 背景2 docker下载 hass3 创建容器4 浏览器访问 hass5 手机APP远程访问hass6 更多玩法 1 背景 既然电脑可以IPV6入站,手机流量可以访问IPV6网络的服务,为什么不在电脑搭建Home Assistant(hass),来控制你的设备呢?@智能家居 @万物互联

pico2 开发环境搭建-基于ubuntu

pico2 开发环境搭建-基于ubuntu 安装编译工具链下载sdk 和example编译example 安装编译工具链 sudo apt install cmake gcc-arm-none-eabi libnewlib-arm-none-eabi libstdc++-arm-none-eabi-newlib 注意cmake的版本,需要在3.17 以上 下载sdk 和ex

Sentinel 高可用流量管理框架

Sentinel 是面向分布式服务架构的高可用流量防护组件,主要以流量为切入点,从限流、流量整形、熔断降级、系统负载保护、热点防护等多个维度来帮助开发者保障微服务的稳定性。 Sentinel 具有以下特性: 丰富的应用场景:Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填谷、集群流量控制、实时熔断下游不可用应

JAVA用最简单的方法来构建一个高可用的服务端,提升系统可用性

一、什么是提升系统的高可用性 JAVA服务端,顾名思义就是23体验网为用户提供服务的。停工时间,就是不能向用户提供服务的时间。高可用,就是系统具有高度可用性,尽量减少停工时间。如何用最简单的方法来搭建一个高效率可用的服务端JAVA呢? 停工的原因一般有: 服务器故障。例如服务器宕机,服务器网络出现问题,机房或者机架出现问题等;访问量急剧上升,导致服务器压力过大导致访问量急剧上升的原因;时间和