Reids集群搭建

2024-09-03 05:08
文章标签 集群 搭建 reids

本文主要是介绍Reids集群搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.1.ruby环境

redis集群管理工具redis-trib.rb依赖ruby环境,首先需要安装ruby环境:

 

redis集群管理工具redis-trib.rb依赖ruby环境,首先需要安装ruby环境:

 

安装ruby

yum install ruby

yum install rubygems

gem install redis


 在执行gem install redis时 

提示:

    gem install redisERROR:  Error installing redis:redis requires Ruby version >= 2.2.2.
  • 1
  • 2
  • 3

采用rvm来更新ruby: 
1.安装RVM:

    gpg2 --keyserver hkp://keys.gnupg.net --recv-keys D39DC0E3curl -L get.rvm.io | bash -s stablefind / -name rvm -print
  • 1
  • 2
  • 3

/usr/local/rvm 
/usr/local/rvm/src/rvm 
/usr/local/rvm/src/rvm/bin/rvm 
/usr/local/rvm/src/rvm/lib/rvm 
/usr/local/rvm/src/rvm/scripts/rvm 
/usr/local/rvm/bin/rvm 
/usr/local/rvm/lib/rvm 
/usr/local/rvm/scripts/rvm

    source /usr/local/rvm/scripts/rvm
  • 1

2.查看rvm库中已知的ruby版本

    rvm list known
  • 1

MRI Rubies 
[ruby-]1.8.6[-p420] 
[ruby-]1.8.7[-head] # security released on head 
[ruby-]1.9.1[-p431] 
[ruby-]1.9.2[-p330] 
[ruby-]1.9.3[-p551] 
[ruby-]2.0.0[-p648] 
[ruby-]2.1[.10] 
[ruby-]2.2[.6] 
[ruby-]2.3[.3] 
[ruby-]2.4[.0] 
ruby-head 
…. 
3.安装一个ruby版本

rvm install 2.3.3
  • 1

No checksum for downloaded archive, recording checksum in user configuration. 
ruby-2.3.3 - #extracting rubygems-2.6.12…. 
ruby-2.3.3 - #removing old rubygems……… 
ruby-2.3.3 - #installing rubygems-2.6.12……………………. 
ruby-2.3.3 - #gemset created /usr/local/rvm/gems/ruby-2.3.3@global 
ruby-2.3.3 - #importing gemset /usr/local/rvm/gemsets/global.gems…………..| 
ruby-2.3.3 - #generating global wrappers…….. 
ruby-2.3.3 - #gemset created /usr/local/rvm/gems/ruby-2.3.3 
ruby-2.3.3 - #importing gemsetfile /usr/local/rvm/gemsets/default.gems evaluated to empty gem list 
ruby-2.3.3 - #generating default wrappers…….. 
ruby-2.3.3 - #adjusting #shebangs for (gem irb erb ri rdoc testrb rake). 
Install of ruby-2.3.3 - #complete 
Ruby was built without documentation, to build it run: rvm docs generate-ri 
4.使用一个ruby版本

rvm use 2.3.3
  • 1

Using /usr/local/rvm/gems/ruby-2.3.3 
[5].设置默认版本

rvm use 2.3.3 --default
  • 1

Using /usr/local/rvm/gems/ruby-2.3.3 
[6].卸载一个已知版本

rvm remove 2.0.0
  • 1

查看ruby版本:

ruby --version
  • 1

ruby 2.3.3p222 (2016-11-21 revision 56859) [x86_64-linux]

安装redis:

gem install redis
  • 1

Fetching: redis-4.0.0.gem (100%) 
Successfully installed redis-4.0.0 
Parsing documentation for redis-4.0.0 
Installing ri documentation for redis-4.0.0 
Done installing documentation for redis after 1 seconds 
1 gem installed



1.2. 创建集群:

1.2.1.  集群结点规划

这里在同一台服务器用不同的端口表示不同的redis服务器,如下:

主节点:

192.168.101.3:7001

192.168.101.3:7002

192.168.101.3:7003

从节点:

192.168.101.3:7004

192.168.101.3:7005

192.168.101.3:7006

 

在/usr/local下创建redis-cluster目录,其下创建7001、7002。。7006目录,如下:

 

 

将redis安装目录bin下的文件拷贝到每个700X目录内,同时将redis源码目录src下的redis-trib.rb拷贝到redis-cluster目录下。

 

修改每个700X目录下的redis.conf配置文件:

 

port XXXX

#bind 192.168.101.3

cluster-enabled yes

 

指定集群的配置文件,cluster-config-file"nodes-xxxx.conf"

 

 

 

 

1.2.2.  启动每个结点redis服务

 

分别进入7001、7002、...7006目录,执行:

./redis-server ./redis.conf

如下:

 ./7001/redis-server ./7001/redis.conf &

。。。

 ./7006/redis-server ./7006/redis.conf &


查看redis进程:

ps -ef|grep redis

 

1.2.3.  执行创建集群命令

执行redis-trib.rb,此脚本是ruby脚本,它依赖ruby环境。

./redis-trib.rb create --replicas 1 192.168.19.128:7001 192.168.19.128:7002 192.168.19.128:7003 192.168.19.128:7004 192.168.19.128:7005 192.168.19.128:7006

说明: 

redis集群至少需要3个主节点,每个主节点有一个从节点总共6个节点

replicas指定为1表示每个主节点有一个从节点

 

注意1:

如果执行时报如下错误:

[ERR]Node XXXXXX is not empty. Either the node already knows other nodes (check withCLUSTER NODES) or contains some key in database 0

解决方法是删除生成的配置文件nodes.conf,如果不行则说明现在创建的结点包括了旧集群的结点信息,需要删除redis的持久化文件后再重启redis,比如:appendonly.aof、dump.rdb

 

注意2:

如果执行时报如下错误:[ERR] Sorry, can't connect to node 192.168.19.128:7001

 后来,我发现redis的ip地址竟然是127.0.0.1,这怎么可能呢。我的虚拟机明明是一个固定的ip地址,但是为什么redis不是这个ip地址。
接着,我查看了redis的配置文件,发现,在配置文件中绑定了127.0.0.1这个地址:

      所以我尝试着将改成了我自己得ip地址,重新启动后再执行创建集群的命令,竟然成了!!我的天呐!!!累死LZ了~

注意3:

Can I set the above configuration? (type 'yes' to accept): 

经检查,这是由于上一次配置集群失败时留下的配置信息导致的。 只要把redis.conf中定义的 cluster-config-file 所在的文件删除,重新启动redis-server及运行redis-trib即可。

 

创建集群输出如下:

>>> Creating cluster

Connecting to node 192.168.101.3:7001: OK

Connecting to node 192.168.101.3:7002: OK

Connecting to node 192.168.101.3:7003: OK

Connecting to node 192.168.101.3:7004: OK

Connecting to node 192.168.101.3:7005: OK

Connecting to node 192.168.101.3:7006: OK

>>> Performing hash slotsallocation on 6 nodes...

Using 3 masters:

192.168.101.3:7001

192.168.101.3:7002

192.168.101.3:7003

Adding replica 192.168.101.3:7004 to192.168.101.3:7001

Adding replica 192.168.101.3:7005 to192.168.101.3:7002

Adding replica 192.168.101.3:7006 to192.168.101.3:7003

M: cad9f7413ec6842c971dbcc2c48b4ca959eb5db4192.168.101.3:7001

  slots:0-5460 (5461 slots) master

M: 4e7c2b02f0c4f4cfe306d6ad13e0cfee90bf5841192.168.101.3:7002

  slots:5461-10922 (5462 slots) master

M: 1a8420896c3ff60b70c716e8480de8e50749ee65192.168.101.3:7003

  slots:10923-16383 (5461 slots) master

S: 69d94b4963fd94f315fba2b9f12fae1278184fe8192.168.101.3:7004

  replicates cad9f7413ec6842c971dbcc2c48b4ca959eb5db4

S: d2421a820cc23e17a01b597866fd0f750b698ac5192.168.101.3:7005

  replicates 4e7c2b02f0c4f4cfe306d6ad13e0cfee90bf5841

S: 444e7bedbdfa40714ee55cd3086b8f0d5511fe54192.168.101.3:7006

  replicates 1a8420896c3ff60b70c716e8480de8e50749ee65

Can I set the above configuration? (type'yes' to accept): yes

>>> Nodes configuration updated

>>> Assign a different configepoch to each node

>>> Sending CLUSTER MEET messagesto join the cluster

Waiting for the cluster to join...

>>> Performing Cluster Check(using node 192.168.101.3:7001)

M: cad9f7413ec6842c971dbcc2c48b4ca959eb5db4192.168.101.3:7001

  slots:0-5460 (5461 slots) master

M: 4e7c2b02f0c4f4cfe306d6ad13e0cfee90bf5841192.168.101.3:7002

  slots:5461-10922 (5462 slots) master

M: 1a8420896c3ff60b70c716e8480de8e50749ee65192.168.101.3:7003

  slots:10923-16383 (5461 slots) master

M: 69d94b4963fd94f315fba2b9f12fae1278184fe8192.168.101.3:7004

  slots: (0 slots) master

  replicates cad9f7413ec6842c971dbcc2c48b4ca959eb5db4

M: d2421a820cc23e17a01b597866fd0f750b698ac5192.168.101.3:7005

  slots: (0 slots) master

  replicates 4e7c2b02f0c4f4cfe306d6ad13e0cfee90bf5841

M: 444e7bedbdfa40714ee55cd3086b8f0d5511fe54192.168.101.3:7006

  slots: (0 slots) master

  replicates 1a8420896c3ff60b70c716e8480de8e50749ee65

[OK] All nodes agree about slotsconfiguration.

>>> Check for open slots...

>>> Check slots coverage...

[OK] All 16384 slots covered.

 

 

1.3. 查询集群信息

集群创建成功登陆任意redis结点查询集群中的节点情况。

 

客户端以集群方式登陆:

 

说明:

./redis-cli -c -h192.168.101.3 -p 7001 ,其中-c表示以集群方式连接redis-h指定ip地址,-p指定端口号

cluster nodes 查询集群结点信息

 

cluster info 查询集群状态信息

 

1.4. 添加主节点

集群创建成功后可以向集群中添加节点,下面是添加一个master主节点

添加7007结点,参考集群结点规划章节添加一个“7007”目录作为新节点。

 

执行下边命令:

./redis-trib.rb add-node  192.168.101.3:7007 192.168.101.3:7001

 

 

查看集群结点发现7007已添加到集群中:

 

 

1.4.1.  hash槽重新分配

添加完主节点需要对主节点进行hash槽分配这样该主节才可以存储数据。

redis集群有16384个槽,集群中的每个结点分配自已槽,通过查看集群结点可以看到槽占用情况。

 

 

给刚添加的7007结点分配槽:

 

 

第一步:连接上集群

./redis-trib.rb reshard 192.168.101.3:7001(连接集群中任意一个可用结点都行)

 

第二步:输入要分配的槽数量

 

输入 500表示要分配500个槽

 

第三步:输入接收槽的结点id

这里准备给7007分配槽,通过cluster nodes查看7007结点id为15b809eadae88955e36bcdbb8144f61bbbaf38fb

输入:15b809eadae88955e36bcdbb8144f61bbbaf38fb

 

 

第四步:输入源结点id

这里输入all

 

 

第五步:输入yes开始移动槽到目标结点id

 

 

 

1.5. 添加从节点

 

集群创建成功后可以向集群中添加节点,下面是添加一个slave从节点。

添加7008从结点,将7008作为7007的从结点。

 

./redis-trib.rbadd-node --slave --master-id 主节点id 添加节点的ip和端口 集群中已存在节点ip和端口

 

 

执行如下命令:

./redis-trib.rb add-node --slave--master-id cad9f7413ec6842c971dbcc2c48b4ca959eb5db4  192.168.101.3:7008 192.168.101.3:7001

cad9f7413ec6842c971dbcc2c48b4ca959eb5db4  是7007结点的id,可通过cluster nodes查看。

 

 

注意:如果原来该结点在集群中的配置信息已经生成cluster-config-file指定的配置文件中(如果cluster-config-file没有指定则默认为nodes.conf),这时可能会报错:

[ERR]Node XXXXXX is not empty. Either the node already knows other nodes (check withCLUSTER NODES) or contains some key in database 0

解决方法是删除生成的配置文件nodes.conf,删除后再执行./redis-trib.rb add-node指令

 

查看集群中的结点,刚添加的7008为7007的从节点:

 

 

 

1.6. 删除结点:

 

./redis-trib.rb del-node 127.0.0.1:70054b45eb75c8b428fbd77ab979b85080146a9bc017

 

删除已经占有hash槽的结点会失败,报错如下:

[ERR] Node 127.0.0.1:7005 is not empty!Reshard data away and try again.

 

需要将该结点占用的hash槽分配出去(参考hash槽重新分配章节)。

 

 

1.7. jedisCluster

1.7.1.  测试代码

 

// 连接redis集群

    @Test

    publicvoidtestJedisCluster() {

 

       JedisPoolConfig config = newJedisPoolConfig();

       // 最大连接数

       config.setMaxTotal(30);

       // 最大连接空闲数

       config.setMaxIdle(2);

 

       //集群结点

       Set<HostAndPort>jedisClusterNode = new HashSet<HostAndPort>();

       jedisClusterNode.add(new HostAndPort("192.168.101.3", 7001));

       jedisClusterNode.add(new HostAndPort("192.168.101.3", 7002));

       jedisClusterNode.add(new HostAndPort("192.168.101.3", 7003));

       jedisClusterNode.add(new HostAndPort("192.168.101.3", 7004));

       jedisClusterNode.add(new HostAndPort("192.168.101.3", 7005));

       jedisClusterNode.add(new HostAndPort("192.168.101.3", 7006));

       JedisCluster jc = newJedisCluster(jedisClusterNode, config);

      

       JedisCluster jcd = newJedisCluster(jedisClusterNode);

       jcd.set("name", "zhangsan");

       String value = jcd.get("name");

       System.out.println(value);

    }

 

 

1.7.2.  使用spring

 

配置applicationContext.xml

 

<!-- 连接池配置 -->

    <bean id="jedisPoolConfig" class="redis.clients.jedis.JedisPoolConfig">

       <!-- 最大连接数 -->

       <property name="maxTotal" value="30"/>

       <!-- 最大空闲连接数 -->

       <property name="maxIdle" value="10"/>

       <!-- 每次释放连接的最大数目 -->

       <property name="numTestsPerEvictionRun" value="1024" />

       <!-- 释放连接的扫描间隔(毫秒) -->

       <property name="timeBetweenEvictionRunsMillis" value="30000" />

       <!-- 连接最小空闲时间 -->

       <property name="minEvictableIdleTimeMillis" value="1800000" />

       <!-- 连接空闲多久后释放, 当空闲时间>该值空闲连接>最大空闲连接数时直接释放 -->

       <property name="softMinEvictableIdleTimeMillis" value="10000" />

       <!-- 获取连接时的最大等待毫秒数,小于零:阻塞不确定的时间,默认-1 -->

       <property name="maxWaitMillis" value="1500" />

       <!-- 在获取连接的时候检查有效性, 默认false -->

       <property name="testOnBorrow" value="true" />

       <!-- 在空闲时检查有效性, 默认false -->

       <property name="testWhileIdle" value="true" />

       <!-- 连接耗尽时是否阻塞, false报异常,ture阻塞直到超时, 默认true -->

       <property name="blockWhenExhausted" value="false" />

    </bean>   

    <!-- redis集群 -->

    <bean id="jedisCluster" class="redis.clients.jedis.JedisCluster">

       <constructor-arg index="0">

           <set>

              <bean class="redis.clients.jedis.HostAndPort">

                  <constructor-arg index="0" value="192.168.101.3"></constructor-arg>

                  <constructor-arg index="1" value="7001"></constructor-arg>

              </bean>

              <bean class="redis.clients.jedis.HostAndPort">

                  <constructor-arg index="0" value="192.168.101.3"></constructor-arg>

                  <constructor-arg index="1" value="7002"></constructor-arg>

              </bean>

              <bean class="redis.clients.jedis.HostAndPort">

                  <constructor-arg index="0" value="192.168.101.3"></constructor-arg>

                  <constructor-arg index="1" value="7003"></constructor-arg>

              </bean>

              <bean class="redis.clients.jedis.HostAndPort">

                  <constructor-arg index="0" value="192.168.101.3"></constructor-arg>

                  <constructor-arg index="1" value="7004"></constructor-arg>

              </bean>

              <bean class="redis.clients.jedis.HostAndPort">

                  <constructor-arg index="0" value="192.168.101.3"></constructor-arg>

                  <constructor-arg index="1" value="7005"></constructor-arg>

              </bean>

              <bean class="redis.clients.jedis.HostAndPort">

                  <constructor-arg index="0" value="192.168.101.3"></constructor-arg>

                  <constructor-arg index="1" value="7006"></constructor-arg>

              </bean>

           </set>

       </constructor-arg>

       <constructor-arg index="1" ref="jedisPoolConfig"></constructor-arg>

    </bean>

 

测试代码

private ApplicationContext applicationContext;

 

    @Before

    publicvoid init() {

       applicationContext = newClassPathXmlApplicationContext(

              "classpath:applicationContext.xml");

    }

 

    //redis集群

    @Test

    publicvoidtestJedisCluster() {

    JedisCluster jedisCluster =(JedisCluster) applicationContext

                  .getBean("jedisCluster");

          

           jedisCluster.set("name", "zhangsan");

           String value = jedisCluster.get("name");

           System.out.println(value);

         }

 

 

 

 

 

2.  系统添加缓存逻辑

添加缓存逻辑的原则:缓存逻辑不能影响正常的业务逻辑执行。

2.1. 添加缓存后系统架构

2.2. 首页大广告位添加缓存

2.2.1.  缓存逻辑

查询内容时先到redis中查询是否有改信息,如果有使用redis中的数据,如果没有查询数据库,然后将数据缓存至redis。返回结果。

2、要添加缓存的位置为:

ContentServiceImpl.java

3、实现步骤

a)        先创建一个key,对应一个hash数据类型

b)       在hash中缓存数据,每条数据对应的key为cid

c)        把内容列表转换成json数据存储。

2.2.2.  缓存实现

@Override

     public TaotaoResult getContentList(longcid) throws Exception{

         //缓存逻辑,先判断缓存中是否有内容

         try {

              String contentStr = cluster.hget(TB_CONTENT_KEY, cid + "");

              if (!StringUtils.isBlank(contentStr)) {

                   //json字符串转换成对象列表

                   List<TbContent> list = JsonUtils.jsonToList(contentStr, TbContent.class);

                   //返回结果

                   return TaotaoResult.ok(list);

              }

         } catch (Exception e) {

              e.printStackTrace();

              //缓存不能影响正常逻辑

         }

         //从数据库中加载数据

         TbContentExample example = new TbContentExample();

         //添加条件

         Criteria criteria = example.createCriteria();

         criteria.andCategoryIdEqualTo(cid);

         List<TbContent> list = contentMapper.selectByExample(example);

        

         //把结果添加到redis数据库中

         try {

              cluster.hset(TB_CONTENT_KEY, cid + "", JsonUtils.objectToJson(list));

         } catch (Exception e) {

              e.printStackTrace();

              //缓存不能影响正常逻辑

         }

        

         //返回结果

         return TaotaoResult.ok(list);

     }

 

2.3. 商品分类列表缓存

课后作业

 

3.  缓存同步

3.1. 同步逻辑分析

当数据库中的内容信息发生改变后,例如首页大广告为的广告内容发生变化后,如何实现redis中的数据同步更新呢?可以在taotao-rest工程中发布一个服务,就是专门同步数据用的,其实只需要把缓存中的数据清空即可。当管理后台更新了内容信息后,需要调用此服务。

 

3.2. 服务实现

3.2.1.  Mapper

此服务不需要mapper内容。只需要JedisCluster对象。

 

3.2.2.  Service

使用JedisCluster清空对应的cid的内容即可。

@Service

publicclass ClearCacheServiceImpl implements ClearCacheService {

 

     @Autowired

     private JedisCluster cluster;

     @Value("${TB_CONTENT_KEY}")

     private String TB_CONTENT_KEY;

    

     @Override

     public TaotaoResult clearContentCache(Long cid) throws Exception {

         //删除cid对应的内容

         cluster.hdel(TB_CONTENT_KEY, cid.toString());

         return TaotaoResult.ok();

     }

 

}

 

3.2.3.  Controller

@Controller

@RequestMapping("/content")

publicclass ContentController {

 

     @Autowired

     private ContentService contentService;

    

     @RequestMapping("/category/{cid}")

     @ResponseBody

     public TaotaoResult getContentList(@PathVariable Long cid) {

         TaotaoResult result = null;

         try {

              result = contentService.getContentList(cid);

         } catch (Exception e) {

              e.printStackTrace();

              return TaotaoResult.build(500, e.getMessage());

         }

         returnresult;

     }

}

 

3.2.4.  内容更新逻辑

更新内容后调用taotao-rest服务清空缓存。

 

 

 


这篇关于Reids集群搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1132110

相关文章

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3

【IPV6从入门到起飞】5-1 IPV6+Home Assistant(搭建基本环境)

【IPV6从入门到起飞】5-1 IPV6+Home Assistant #搭建基本环境 1 背景2 docker下载 hass3 创建容器4 浏览器访问 hass5 手机APP远程访问hass6 更多玩法 1 背景 既然电脑可以IPV6入站,手机流量可以访问IPV6网络的服务,为什么不在电脑搭建Home Assistant(hass),来控制你的设备呢?@智能家居 @万物互联

pico2 开发环境搭建-基于ubuntu

pico2 开发环境搭建-基于ubuntu 安装编译工具链下载sdk 和example编译example 安装编译工具链 sudo apt install cmake gcc-arm-none-eabi libnewlib-arm-none-eabi libstdc++-arm-none-eabi-newlib 注意cmake的版本,需要在3.17 以上 下载sdk 和ex

一种改进的red5集群方案的应用、基于Red5服务器集群负载均衡调度算法研究

转自: 一种改进的red5集群方案的应用: http://wenku.baidu.com/link?url=jYQ1wNwHVBqJ-5XCYq0PRligp6Y5q6BYXyISUsF56My8DP8dc9CZ4pZvpPz1abxJn8fojMrL0IyfmMHStpvkotqC1RWlRMGnzVL1X4IPOa_  基于Red5服务器集群负载均衡调度算法研究 http://ww

828华为云征文|华为云Flexus X实例docker部署rancher并构建k8s集群

828华为云征文|华为云Flexus X实例docker部署rancher并构建k8s集群 华为云最近正在举办828 B2B企业节,Flexus X实例的促销力度非常大,特别适合那些对算力性能有高要求的小伙伴。如果你有自建MySQL、Redis、Nginx等服务的需求,一定不要错过这个机会。赶紧去看看吧! 什么是华为云Flexus X实例 华为云Flexus X实例云服务是新一代开箱即用、体

kubernetes集群部署Zabbix监控平台

一、zabbix介绍 1.zabbix简介 Zabbix是一个基于Web界面的分布式系统监控的企业级开源软件。可以监视各种系统与设备的参数,保障服务器及设备的安全运营。 2.zabbix特点 (1)安装与配置简单。 (2)可视化web管理界面。 (3)免费开源。 (4)支持中文。 (5)自动发现。 (6)分布式监控。 (7)实时绘图。 3.zabbix的主要功能

laravel框架实现redis分布式集群原理

在app/config/database.php中配置如下: 'redis' => array('cluster' => true,'default' => array('host' => '172.21.107.247','port' => 6379,),'redis1' => array('host' => '172.21.107.248','port' => 6379,),) 其中cl