pika的安装使用及主从配置

2023-10-14 00:10
文章标签 配置 安装 使用 主从 pika

本文主要是介绍pika的安装使用及主从配置,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

`简介`
Pika是一个可持久化的大容量redis存储服务,兼容string、hash、list、zset、set的绝大部分接口(兼容详情),解决redis由于存储数据量巨大而导致内存不够用的容量瓶颈,并且可以像redis一样,通过slaveof命令进行主从备份,支持全同步和部分同步,pika还可以用在twemproxy或者codis中来实现静态数据分片。
`特点`
容量大,支持百G数据量的存储
兼容redis,不用修改代码即可平滑从redis迁移到pika
支持主从(slaveof)
完善的运维命令

1、下载安装包

文件已上传,以下地址可下载
https://download.csdn.net/download/weixin_44320761/16136634

2、解压安装包

#安装依赖
yum -y install bzip2
#解压安装包
tar  -jxvf pika-linux-x86_64-v3.3.5.tar.bz2

pika解压
3、移动目录至/usr/local

mv output /usr/local/pika

目录结构
4、修改配置

#日志文件路径
10 log-path : ./log/
#数据文件路径
12 db-path : ./db/
#用户密码认证
22 userpass : foobared
#数据库个数
34 databases : 8
#后台启动
45 daemonize : yes

5、启动pika服务

/usr/local/pika/bin/pika -c /usr/local/pika/conf/pika.conf

启动pika
6、用redis客户端连接即可

redis-cli -p 9221

pika连接
7、主从配置

cp -p  /usr/local/pika/conf/pika.conf /usr/local/pika/conf/pika-slave.conf
#修改从配置
#启动端口
2 port : 9222
#日志目录
10 log-path : ./log-slave/
#数据目录
12 db-path : ./db-slave/
#主库密码认证
20 masterauth : foobared
#启动进程文件
51 pidfile : ./pika-slave.pid
#主从配置
77 slaveof : 127.0.0.1:9221

8、启动从库

/usr/local/pika/bin/pika -c /usr/local/pika/conf/pika-slave.conf

启动从库
9、主从验证

#主库
[root@iZuf69tx4xhnj6pbdh239tZ bin]# redis-cli -p 9221
127.0.0.1:9221> auth foobared
OK
127.0.0.1:9221> set age 18
OK
127.0.0.1:9221> INFO replication
# Replication(MASTER)
role:master
connected_slaves:1
slave0:ip=172.16.2.244,port=9222,conn_fd=233,lag=(db0:0)(db1:0)(db2:0)(db3:0)(db4:0)(db5:0)(db6:0)(db7:0)
db0 binlog_offset=0 147,safety_purge=none
db1 binlog_offset=0 0,safety_purge=none
db2 binlog_offset=0 0,safety_purge=none
db3 binlog_offset=0 0,safety_purge=none
db4 binlog_offset=0 0,safety_purge=none
db5 binlog_offset=0 0,safety_purge=none
db6 binlog_offset=0 0,safety_purge=none
db7 binlog_offset=0 0,safety_purge=none
#从库
[root@iZuf69tx4xhnj6pbdh239tZ bin]# redis-cli -p 9222
127.0.0.1:9222> auth foobared
OK
127.0.0.1:9222> get age
"18"
127.0.0.1:9222> INFO replication
# Replication(SLAVE)
role:slave
master_host:172.16.2.244
master_port:9221
master_link_status:up
slave_priority:100
slave_read_only:1
db0 binlog_offset=0 147,safety_purge=none
db1 binlog_offset=0 0,safety_purge=none
db2 binlog_offset=0 0,safety_purge=none
db3 binlog_offset=0 0,safety_purge=none
db4 binlog_offset=0 0,safety_purge=none
db5 binlog_offset=0 0,safety_purge=none
db6 binlog_offset=0 0,safety_purge=none
db7 binlog_offset=0 0,safety_purge=none 

这篇关于pika的安装使用及主从配置的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/206809

相关文章

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传