【Redis笔记】一起学习Redis | 大海捞针,了解scan命令

2024-01-14 12:32

本文主要是介绍【Redis笔记】一起学习Redis | 大海捞针,了解scan命令,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一起学习Redis | 大海捞针,了解scan命令


如果觉得对你有帮助,能否点个赞或关个注,以示鼓励笔者呢?!博客目录 | 先点这里

  • 前提概要
    • 了解一下keys命令
    • 为什么要使用scan代替keys
  • Scan命令
    • scan衍生类型
    • scan基本使用
    • scan的遍历原理
  • 代码实践
    • scan命令
    • hscan命令
    • sscan命令
    • zscan命令

前提概要


了解一下keys命令

在平时线上的Redis维护过程中,有时候需要从Redis实例中的成千上万个key中找到特定前缀的key集合。可能是批量删除,也可能是批量修改,查询等等。这样就延伸出了一个问题,如何从海量的key中找到满足特定前缀的数据集合?

  • keys pattern
    Redis提供了一个简单粗暴的keys命令来列出所有满足特定正则字符串规则的key

虽然keys命令非常的简单,但是有点过度简单,并且带有两个明显的缺点:

  • 不支持offset, limit功能,既没有分批查询的功能
    如果在海量数据的Redis实例中,如果满足条件的查询有上百万,千万的key,那么该查询操作会非常的耗时。

  • keys命令是线性遍历,时间复杂度是O(n)
    如果符合条件的数据过多,鉴于Redis的单线程模型,该命令会严重阻塞其他客户端在该Redis实例的命令操作。所以keys不适合在生产环境中使用。


为什么要使用scan代替keys

所以Redis为了解决Keys存在缺陷的这个问题,在2.8版本后加入了scan的命令。 那么scan命令相比keys有什么好处呢?

  • 虽然scan复杂度也是O(n) , 但是我的原理是游标分步遍历,提供分批的功能,一次只查一部分。不会对线程造成严重阻塞。
  • 提供了count的参数,类似于limit功能,可以限制一次最多返回的近似最大值

在这里插入图片描述

scan最重要的特性就是可以分批操作,不会一个命令执行很长时间,从而导致阻塞线程。虽然scan有如此多的好处,但是它的操作相对keys而言更为复杂,而且也有几个缺点需要注意

  • 返回的结果可能会有重复,需要用户自己去重
  • 遍历的过程,如果有数据改动,改动后的数据是否能够查到是不能确定的

Scan命令


scan衍生类型

Redis的四种基本容器类型中,只有hash,set,zset支持scan操作,list没有scan操作

针对所有Redis的外部键

  • scan

针对Redis容器类型的键

  • hscan
  • sscan
  • zscan

scan基本使用

命令参数

scan cursor [MATCH pattern] [COUNT count]  
  • cursor就是游标,第一次查询,游标默认为0。只有当scan返回的游标再次为0,才代表本次整体遍历结束
  • pattren就是字符串匹配规则
  • count就是近视的最大要返回的元素个数,并不严苛,但是大致会在count的范围浮动

如何使用

  • 一般我们可以在代码上封装好分批查询,既要多次调用scan命令,每次都将上次scan返回的游标结果作为下次scan的游标参数。
  • 第一次scan的游标默认为0,在整体的遍历中,只有当之后的某次scan返回的游标结果再次为0,这代表本次整体循环结束。
    在这里插入图片描述

scan特性

  • 单次返回的结果,如果为空,不代表就遍历结束了。只有其返回的游标是空,才代表此次遍历结束
  • 可能会返回重复的结果
  • 每次遍历的数据个数,或多或少,但最大个数肯定在count参数的附近,除非哈希冲突的个数太多了。

scan的遍历原理

在Redis中所有的key都存储在一个很大的字典中,这个字典的结构和Java的HashMap一样。通过一维数组来存储数据,哈希冲突的数据使用链地址法来解决。

在这里插入图片描述

而scan指令是怎么遍历这个数组和链表的呢?

  • scan中的cursor游标实际代表的就是数组的位置索引,Redis将这个位置索引称之为槽(slot)。在不考虑字典扩容的情况下。scan就是按照数组的下标,一个一个遍历槽的。而scan返回游标就是代表此时遍历到数组的这个位置,如要下次遍历,就从这里开始。
  • count并不是要遍历的元素个数,而是一次scan,要遍历的槽的个数,既遍历数组的长度是多少。
  • 之所以有时候返回的数据多,有的时候数据少,甚至有的时候,数据为空。这是因为并不是数组的每个槽都存放有数据的。如果有多个冲突数据,这会存在这个槽的链表中。

代码实践


scan命令
import redis"""
验证scan命令
"""
client = redis.StrictRedis(host='127.0.0.1', port=6379)
key = "test:"def set_data():"""(1) 插入1000个string类型key"""for i in range(1000):client.set(key + str(i), i)def scan_data():"""(2)  通过scan遍历这1000个“test:”前缀的数据"""cursor = 0  # 游标起始为0sum_number = 0  # 元素总量,验证数量while True:data = client.scan(cursor, key + '*', 100)cursor = data[0]sum_number += len(data[1])if cursor == 0:  # 只要游标变回0,代表遍历结束breakprint(len(data[1]), list(map(lambda key: key.decode('utf-8'), data[1])))print(str(sum_number))def del_data():"""(3)  通过scan删除这1000个“test:”前缀开头的数据"""cursor = 0  # 游标起始为0while True:data = client.scan(cursor, key + '*', 100)cursor = data[0]keys = list(map(lambda key: key.decode('utf-8'), data[1]))client.delete(*keys)if cursor == 0:  # 只要游标变回0,代表遍历结束breakif __name__ == '__main__':"""1. 插入1000个数据2. 通过scan遍历这1000个数据3. 通过scan分批删这个1000个数据,每批扫描100个数据槽,大致10批4. 再次通过scan查询这1000个数据,看是否删除成功"""set_data()scan_data()del_data()scan_data()

hscan命令
import redis"""
验证hscan命令
"""
client = redis.StrictRedis(host='127.0.0.1', port=6379)
outer_key = "hash"
hash_key = "test:"def hset_data():"""(1) 对"hash"的键插入1000个哈希子数据"""for i in range(1000):client.hset(outer_key, hash_key + str(i), i)def hscan_data():"""(2)  通过hscan遍历这1000个“test:”前缀的子数据"""cursor = 0  # 游标起始为0sum_number = 0  # 元素总量,验证数量while True:data = client.hscan(outer_key, cursor, hash_key + '*', 100)cursor = data[0]sum_number += len(data[1])if cursor == 0:  # 只要游标变回0,代表遍历结束breakprint(len(data[1]), list(map(lambda key: key.decode('utf-8'), data[1])))print(str(sum_number))def hdel_data():"""(3)  通过hscan删除这1000个“test:”前缀开头的子数据"""cursor = 0  # 游标起始为0while True:data = client.hscan(outer_key, cursor, hash_key + '*', 100)cursor = data[0]keys = list(map(lambda key: key.decode('utf-8'), data[1]))client.hdel(outer_key, *keys)if cursor == 0:  # 只要游标变回0,代表遍历结束breakif __name__ == '__main__':"""1. 向hash类型的"hash"键插入1000个子数据2. 通过hscan遍历"hash"键的1000个子数据3. 通过hscan分批删这个1000个子数据,每批扫描100个数据槽,大致10批4. 再次通过hscan查询这1000个数据,看是否删除成功"""hset_data()hscan_data()hdel_data()hscan_data()

sscan命令
import redis"""
验证sscan命令
"""
client = redis.StrictRedis(host='127.0.0.1', port=6379)
outer_key = "set"
data_prefix = "set:"def sadd_data():"""(1) 对"set"的键插入1000个集合子数据,所有集合内容皆以“set:”开头"""for i in range(1000):client.sadd(outer_key, data_prefix + str(i))def sscan_data():"""(2)  通过sscan遍历set键集合的1000个“set:”前缀的子数据"""cursor = 0  # 游标起始为0sum_number = 0  # 元素总量,验证数量while True:data = client.sscan(outer_key, cursor, data_prefix + '*', 100)cursor = data[0]sum_number += len(data[1])if cursor == 0:  # 只要游标变回0,代表遍历结束breakprint(len(data[1]), list(map(lambda set_data: set_data.decode('utf-8'), data[1])))print(str(sum_number))def srem_data():"""(3)  通过sscan分批删除这1000个“set:”前缀开头的集合数据"""cursor = 0  # 游标起始为0while True:data = client.sscan(outer_key, cursor, data_prefix + '*', 100)cursor = data[0]datas = list(map(lambda set_data: set_data.decode('utf-8'), data[1]))client.srem(outer_key, *datas)if cursor == 0:  # 只要游标变回0,代表遍历结束breakif __name__ == '__main__':"""1. 向set类型的"set"键插入1000个子数据2. 通过sscan遍历"set"键的1000个子数据3. 通过sscan分批删这个1000个子数据,每批扫描100个数据槽,大致10批4. 再次通过sscan查询这1000个数据,看是否删除成功"""sadd_data()sscan_data()srem_data()sscan_data()

zscan
import redis"""
验证sscan命令
"""
client = redis.StrictRedis(host='127.0.0.1', port=6379)
outer_key = "zset"
data_prefix = "zset:"def zadd_data():"""(1) 对"zset"的键插入1000个有序集合子数据,所有集合内容皆以“zset:”开头"""for i in range(1000):item = {data_prefix + str(i): i}client.zadd(outer_key, item)def zscan_data():"""(2)  通过zscan遍历zset键有序集合的1000个“zset:”前缀的子数据"""cursor = 0  # 游标起始为0sum_number = 0  # 元素总量,验证数量while True:data = client.zscan(outer_key, cursor, data_prefix + '*', 100)cursor = data[0]sum_number += len(data[1])if cursor == 0:  # 只要游标变回0,代表遍历结束breakzset_tuple = data[1]print(len(data[1]), list(map(lambda zset_data: zset_data[0].decode('utf-8'), zset_tuple)))print(str(sum_number))def zrem_data():"""(3)  通过zscan分批删除这1000个“zset:”前缀开头的有序集合数据"""cursor = 0  # 游标起始为0while True:data = client.zscan(outer_key, cursor, data_prefix + '*', 100)cursor = data[0]zset_tuple = data[1]datas = list(map(lambda zset_data: zset_data[0].decode('utf-8'), zset_tuple))client.zrem(outer_key, *datas)if cursor == 0:  # 只要游标变回0,代表遍历结束breakif __name__ == '__main__':"""1. 向zset类型的"zset"键插入1000个子数据2. 通过zscan遍历"zset"键的1000个子数据3. 通过zscan分批删这个1000个子数据,每批扫描100个数据槽,大致10批4. 再次通过zscan查询这1000个数据,看是否删除成功"""zadd_data()zscan_data()zrem_data()zscan_data()

相关知识点


如何应对大key的操作

大key数据,每次的set, get, del都是需要花费大量的时间。所以我们需要对这些大key的数据进行分批操作

  • 对于是string类型的大key,那只能杜绝这类key的出现

针对容器类型的大key , 比如hash, list, set, zset等,我们都可以考虑使用分批操作,比如删除操作:

  • Large Hash Key 可使用hscan命令,每次获取500个字段,再用hdel命令,每次500个内部元素。
  • Large Set Key 可使用sscan命令,每次扫描集合中500个元素,再用srem命令每次删除500个元素。
  • Large List Key 可通过ltrim命令每次删除部分元素,直到全部删除
  • Large Sorted Set Key 使用zset自带的zremrangebyrank命令,每次删除前500个元素

参考资料


  • 《Redis深度历险》

  • redis过期键删除策略以及大key删除方法 - @作者:konami

  • 如果觉得对你有帮助,能否点个赞或关个注,以示鼓励笔者呢?!

这篇关于【Redis笔记】一起学习Redis | 大海捞针,了解scan命令的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/605169

相关文章

Redis分片集群的实现

《Redis分片集群的实现》Redis分片集群是一种将Redis数据库分散到多个节点上的方式,以提供更高的性能和可伸缩性,本文主要介绍了Redis分片集群的实现,具有一定的参考价值,感兴趣的可以了解一... 目录1. Redis Cluster的核心概念哈希槽(Hash Slots)主从复制与故障转移2.

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

一文带你了解SpringBoot中启动参数的各种用法

《一文带你了解SpringBoot中启动参数的各种用法》在使用SpringBoot开发应用时,我们通常需要根据不同的环境或特定需求调整启动参数,那么,SpringBoot提供了哪些方式来配置这些启动参... 目录一、启动参数的常见传递方式二、通过命令行参数传递启动参数三、使用 application.pro

redis+lua实现分布式限流的示例

《redis+lua实现分布式限流的示例》本文主要介绍了redis+lua实现分布式限流的示例,可以实现复杂的限流逻辑,如滑动窗口限流,并且避免了多步操作导致的并发问题,具有一定的参考价值,感兴趣的可... 目录为什么使用Redis+Lua实现分布式限流使用ZSET也可以实现限流,为什么选择lua的方式实现

Redis中管道操作pipeline的实现

《Redis中管道操作pipeline的实现》RedisPipeline是一种优化客户端与服务器通信的技术,通过批量发送和接收命令减少网络往返次数,提高命令执行效率,本文就来介绍一下Redis中管道操... 目录什么是pipeline场景一:我要向Redis新增大批量的数据分批处理事务( MULTI/EXE

Redis中高并发读写性能的深度解析与优化

《Redis中高并发读写性能的深度解析与优化》Redis作为一款高性能的内存数据库,广泛应用于缓存、消息队列、实时统计等场景,本文将深入探讨Redis的读写并发能力,感兴趣的小伙伴可以了解下... 目录引言一、Redis 并发能力概述1.1 Redis 的读写性能1.2 影响 Redis 并发能力的因素二、

Redis中的常用的五种数据类型详解

《Redis中的常用的五种数据类型详解》:本文主要介绍Redis中的常用的五种数据类型详解,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Redis常用的五种数据类型一、字符串(String)简介常用命令应用场景二、哈希(Hash)简介常用命令应用场景三、列表(L

Redis解决缓存击穿问题的两种方法

《Redis解决缓存击穿问题的两种方法》缓存击穿问题也叫热点Key问题,就是⼀个被高并发访问并且缓存重建业务较复杂的key突然失效了,无数的请求访问会在瞬间给数据库带来巨大的冲击,本文给大家介绍了Re... 目录引言解决办法互斥锁(强一致,性能差)逻辑过期(高可用,性能优)设计逻辑过期时间引言缓存击穿:给

一文带你深入了解Python中的GeneratorExit异常处理

《一文带你深入了解Python中的GeneratorExit异常处理》GeneratorExit是Python内置的异常,当生成器或协程被强制关闭时,Python解释器会向其发送这个异常,下面我们来看... 目录GeneratorExit:协程世界的死亡通知书什么是GeneratorExit实际中的问题案例

Redis中如何实现商品秒杀

《Redis中如何实现商品秒杀》:本文主要介绍Redis中如何实现商品秒杀问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录技术栈功能实现步骤步骤一:准备商品库存数据步骤二:实现商品秒杀步骤三:优化Redis性能技术讲解Redis的List类型Redis的Set