rsync数据同步和sersync数据实时同步服务器

2024-01-24 13:52

本文主要是介绍rsync数据同步和sersync数据实时同步服务器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

rsync数据同步和sersync数据实时同步服务器

基于三台服务器,部署数据实时同步服务器,一台作为主服务器sersync(推送数据),其余两台作为备用服务器rsync(拉取数据)。
 

rsync 数据同步

环境:

服务器:172.20.26.167

服务器:172.20.26.198

服务器:172.20.26.24

 实现有权限的地址可同步

两台服务器均需安装有rsync服务。

在172.20.26.198上检查是否有安装rsync 服务

[root@localhost ~]# rpm -qc rsync  #查询rsync服务的配置文件

未安装软件包 rsync

[root@localhost ~]# yum install rsync -y

[root@localhost ~]# rpm -qc rsync  #查询rsync 服务的配置文件

/etc/rsyncd.conf

/etc/sysconfig/rsyncd

[root@localhost ~]# vim /etc/rsyncd.conf   #守护模式的配置文件rsyncd.conf,在后台运行的进程,不影响前端的shell

把光标移动到uid行首,ctrl+v 进入可视化模式,按向右键,再按向下键,再按x键,去掉#号注释,保留有效参数

修改相关配置参数:

uid = root  rsync    #进程管理用户

gid = root   rsync   #进程管理用户

use chroot = yes     #安全设置,限制软连接,如果设置为no,则文件同步到远程服务器后,会在链接文件前面增加一个目录,使链接文件失效,设置为yes则表示不加目录。

max connections = 10  #最大链接数

ignore nonreadable = yes   #忽略不可读的错误

read only = false       #关闭只读权限

hosts allow = 172.20.26.24  #允许同步的服务器

hosts deny = *   #不允许同步的服务器,* 代表所有

auth users = rsync             #创建同步时使用的虚拟用户

secrets file = /etc/rsync.passwd    #将密码写入rsync.passwd 文件,使用该虚拟用户同时时不需要再输入密码

编辑【web】模块、【sql】模块

[web]

       path = /data/web

       comment = nginx data backup

[sql]

      path = /data/sql

      comment = sql data backup

[root@localhost ~]# systemctl start rsyncd

[root@localhost ~]# systemctl status rsyncd

创建配置文件设置的目录路径

[root@localhost ~]# mkdir -p /data/web

[root@localhost ~]# ls

anaconda-ks.cfg

[root@localhost ~]# mkdir -p /data/sql

[root@localhost ~]# ls

anaconda-ks.cfg

[root@localhost ~]#

[root@localhost /]# cp /etc/fstab /data/web   #将/etc/fstab 文件拷贝到/data/web 目录下

在172.20.26.24服务器上也安装rsync 服务

[root@bogon ~]# systemctl start rsyncd    #启动rsync服务

从172.20.26.198服务器上拉取web 模块中的文件到当前目录下

[root@bogon ~]# rsync -av 172.20.26.198::web .

也可以将本机上的文件(/etc/passwd)推送给172.20.26.198上的web模块里,因在172.20.26.198上的rsync.conf文件中配置了“read only = false  关闭只读权限”,否则会报错。

在172.20.26.198上查询推送过来的passwd文件

如果需要开启认证的话,需要定义虚拟用户和密码,配置到rsync.conf 文件中

[root@localhost /]# vim /etc/rsyncd.conf

如果使用的用户名和密码一样,可以写在全局里,也可以写到模块里,如果不一样,分别写到自己的模块里即可。

[root@localhost /]# echo "rsync:123456" >/etc/rsync.passwd

[root@localhost /]# chmod 600 /etc/rsync.passwd   #修改rsync.passwd 文件的权限,其他人和组不可读写

重启rsync 服务

[root@localhost /]# systemctl restart rsyncd

[root@bogon ~]# rsync -av /etc/yum.conf rsync@172.20.26.198::web

输入rsync 的密码 123456

在172.20.26.198上查询/data/web 目录下已经有yum.conf 文件

也可以将密码写进文件里,使用这个用户同步数据时不再需要输入密码。

[root@bogon ~]# echo "123456" > /etc/rsync.passwd    #将密码写入rsync.passwd 文件中

[root@bogon ~]# chmod 600 /etc/rsync.passwd  #取消其他人和组对rsync.passwd 文件读取权限

[root@bogon ~]# rsync -av /etc/virc rsync@172.20.26.198::web --password-file=/etc/rsync.passwd

在172.20.26.198上查询/data/web 目录下已经有virc 文件。

也可以设置允许某些服务器连接同步,拒绝其他的服务器连接同步。

目前172.20.26.167 服务器是可以将文件推送到172.20.26.198服务器上的,而我们可以设置只允许172.20.26.24 连接同步,拒绝172.20.26.167连接同步。

[root@localhost ~]# vim /etc/rsyncd.conf

[root@localhost ~]# systemctl restart rsyncd

在172.20.26.167上推送sysctl.conf文件到172.20.26.198上,被拒绝

[root@bogon ~]# rsync -av /etc/sysctl.conf rsync@172.20.26.198::web

我们修改172.20.26.198上的/etc/rsyncd.conf文件,把172.20.26.167 写到允许的hosts 里,即可让172.20.26.167也能向172.20.26.198服务器推送文件

[root@localhost ~]# vim /etc/rsyncd.conf

保存退出,重启rsync服务

[root@localhost ~]# systemctl restart rsyncd

回到172.20.27.167服务器上执行rsync命令,

 [root@bogon ~]# rsync -av /etc/sysctl.conf rsync@172.20.26.198::web

将syssctl.conf 推送到172.20.26.198服务器上的web模块中

我们在/etc/rsyncd.conf 里也配置了sql 模块,也创建了/data/sql 目录,我们也可以用这个模块进行实验。

rsync -av /etc/virc rsync@172.20.26.198::sql --password-file=/etc/rsync.passwd

sersync 实时数据同步

环境:

sersync服务器:172.20.26.24    配置sersync 把数据推给167、198

rsync服务器:172.20.26.167、172.20.26.198   配置rsync 接收数据

先在172.20.26.24服务器上配置sersync 服务

[root@bogon ~]# cd /usr/src

[root@bogon src]# rz

将sersync2.5.4_64bit_binary_stable_final.tar上传到172.20.26.24上,配置sersync服务

[root@bogon src]# tar xf sersync2.5.4_64bit_binary_stable_final.tar.gz

将解压出来的GNU-Linux-x86目录移到/usr/local/sersync

[root@bogon src]# mv GNU-Linux-x86/ /usr/local/sersync 

 [root@bogon src]# cd /usr/local/sersync

[root@bogon sersync]# ls

confxml.xml  sersync2

/usr/local/sersync下只有confxml.xml、sersync2两个文件,一个是配置文件、一个可执行文件

[root@bogon sersync]# vim /usr/local/sersync/confxml.xml

将<fileSystem xfs="false"/>  改为 <fileSystem xfs="true"/>

Inotify 模块定义通知开始同步的条件:

<inotify>

        <delete start="true"/>     #开始删除的时候,默认为true

        <createFolder start="true"/>    #创建目录的时候,默认为true

        <createFile start="false"/>      #创建文件的时候,默认为false

        <closeWrite start="true"/>      #关闭写的时候,默认为true

        <moveFrom start="true"/>     #从---移动到的时候,默认为true

        <moveTo start="true"/>     #开始移动的时候,默认为true

        <attrib start="false"/>       #查询开始,默认为false

        <modify start="false"/>      #修改开始的时候,默认为false

    </inotify>

配置监控的目录,远程服务器IP地址,要监控的模块,我们之前定义设定的是web

将超时时间改为true

<timeout start="true" time="100"/><!-- timeout=100 -->

计划任务默认是false ,如果改为true,默认是600分钟做一次全量同步

<crontab start="false" schedule="600"><!--600mins-->

开启认证,配置使用rsync 和密码文件

<auth start="true" users="rsync" passwordfile="/etc/rsync.passwd"/>

保存退出

[root@bogon sersync]# mkdir -p /data/jfedu          #创建jfedu目录

[root@bogon sersync]# ./sersync2 -d -r -o /usr/local/sersync/confxml.xml   #启动sersync 服务

检查172.20.26.167、172.20.26.198 rsync服务器的服务和目录是否都正常

由于172.20.26.167服务器上没有部署rsync ,可以从172.20.26.198上将rsync的文件拷贝过来

[root@bogon etc]# scp 172.20.26.198:/etc/rsync* /etc/

拷贝过来后检查一下rsyncd.conf 没有问题,重启服务

[root@bogon /]# chmod 600 /etc/rsync.passwd  #取消其他人和组对rsync.passwd 文件读取权限

创建/data/web 目录

172.20.26.198服务器上rsync 服务和目录都正常

回到172.20.26.24服务器上开始更新/data/jfedu里的数据

[root@bogon sersync]# cp /etc/fstab /data/jfedu/

172.20.26.167服务器上查看data/web 目录下已经有了fstab 文件

172.20.26.198服务器上查看data/web 目录下也已经有了fstab 文件

我们把/etc/passwd 也拷贝到/data/jfedu  ,查看同步情况

对passwd文件内容进行修改,查看同步情况

删除 root:x:0:0:root:/root:/bin/bash  这行信息

保存退出

在172.20.26.167和172.20.26.198上查看passwd文件里是已经没有刚才删除的信息:root:x:0:0:root:/root:/bin/bash

[root@bogon etc]# vim /data/web/passwd

[root@bogon sersync]# tail /tmp/rsync_fail_log.sh  #可以查看运行日志

查看sersync 进程

这篇关于rsync数据同步和sersync数据实时同步服务器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/639902

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X