Sqlite3+RabbitMQ+Celery Python从零开始搭建一个持久化层的生产者消费者服务模型

本文主要是介绍Sqlite3+RabbitMQ+Celery Python从零开始搭建一个持久化层的生产者消费者服务模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 一张图说明我们接下来要造什么:

在这里插入图片描述
本次实验所使用到的玩具:

【1】RabbitMQ:消息队列中间件,做broker角色

【2】Celery:异步调度中间件,做workers的调度者(包工头)

【3】Sqlite:异步计算结果存储的角色

我们的 workers 可以理解为多进程/多线程,然后通过Celery来进行智能化的调度,至于他怎么调度的我们暂时不关心,然后我们使用RabbitMQ作为消息队列缓存的中间服务,当我们接收到生产者的数据的时候就会统一访问到我们的Celery进行调度执行,然后我们可以通过Celery来异步获取计算结果,当然了我们不想等待可以完全交给他执行,他执行完会把数据存入到结果数据库,我们再通过Celery来访问结果数据库(Backend)来获取我们之前计算的结果。

2. 安装配置顺序

  • Step1: 安装Erlang(Erlang是一种通用的面向并发的编程语言)
  • Step2: 安装RabbitMQ(第三方消息缓存中间件)
  • Step3: 安装Sqlite3并配置环境变量
  • (可选)安装SqliteStudio来预览数据库数据
  • Step4: Python 安装 celery
  • Step5: 启动 RabbitMQ服务并测试可视化UI
  • (可选)配置VSCode-Celery任务启动
  • Step6: 编写Worker-Python代码(消费者)
  • Step7: 编写Producer-Python代码(生产者)
  • Step8: 新建一个DB数据库
  • Step9: 启动 celery 绑定 broker到RabbitMQ,绑定backend到新建的DB数据库
  • Step10: 发起Producer的处理请求
  • Step11: 通过任务ID来访问曾经处理过的任务
  • —— 完成

3. 安装需要的文件:

在这里插入图片描述
打包下载地址

4. 配置详细步骤


4.1 安装 Erlang

双击安装 otp_win64_23.2.exe

RabbitMQ是用Erlang写的,所以必须安装Erlang虚拟机


4.2 安装 RabbitMQ

也是双击安装


4.3 安装Sqlite3驱动并配置环境变量

在电脑任意一个地方新建一个文件夹用来存Sqlite3数据库驱动,比如我手动新建:sqlite 目录在

C:\Program Files\sqlite

那么你的Path环境变量新建一个的时候就需要把这个目录填上。因人而异,弱智操作,自行体会。
在这里插入图片描述
然后把那些和sqlite有关的解压,复制到自己的目录:(结果如下)
在这里插入图片描述


4.4 Python 安装 celery

pip install celery

4.5 启动 RabbitMQ服务并测试可视化UI

我们可以看到我们新安装的程序里:
在这里插入图片描述
可以从这里启动,也可以直接跑到RabbitMQ的老家那里去启动:

启动管理插件:sbin/rabbitmq-plugins enable rabbitmq_management
启动rabbitmq:sbin/rabbitmq-server -detached

WEB-UI 管理地址:http://localhost:15672/,自己找他在哪个端口刨出来的,官网有说到,另外自己可以从启动输出的日志找到哦

在这里插入图片描述
默认密码和账户都是:guest

打开:
在这里插入图片描述


4.6 编写Worker-Python代码(消费者)

新建一个DB数据库放在同一个目录,这个就省略操作了。
在这里插入图片描述
不用建表,到时候celery自己会建表的。

from celery import Celery
import sqlite3
broker = 'amqp://guest@localhost//' #缓存消息队列
backend = 'db+sqlite:///qw.db' #结果暂存数据库
app = Celery('task', broker=broker, backend=backend)# param1:app的名字,也就是这个代码文件的名字
# param2:消息中间件,amqp协议访问消息队列,我们使用RabbitMQ,你可以用Redis(严格来说他不是消息队列,而是持久化内存数据库)
# param3:结果存储# 当我们启动任务的时候可以通过异步进行获取结果,也可以通过查询任务id来对结果数据库访问查询@app.task
def add(x, y):return x + y

注意一下协议的格式,特别是像sqlite这种小数据库,celery+sqlite用法的资料并不多,但无奈不想装MySQL先用lite来替代着。


4.7 编写VSCode 任务命令

在这里插入图片描述
在这里插入图片描述
或者你可以在命令同目录下启动:celery -A task worker --loglevel=info

注意:task 是我的这个代码的名字(严格来说是app的名字)


4.8 启动 celery

在这里插入图片描述


4.9 编写生产者

简单的用法我都写在下面了:

from task import add# 我们通过Celery执行worker的代码
# 然后再通过Celery取数据出来,再写入数据库
# 注意在只有一个参数要传时 需要写成列表的形式[v1,]# 这个时候只有在Celery服务器启动的时候才能进行
# Method1 异步获取数据结果
re = add.apply_async((23,1)) # do 23+1
print(re.get())'''
# Method2 异步获取数据结果
re = add.delay(23,1)
print(re.get())
''''''
# 根据任务ID去获取以前计算的结果
re = add.AsyncResult('0b0ebce2-cb17-4b32-8847-68d793205009')
print(re.get())
'''

如上演示了:add这个函数的并发命令执行

我们执行完可以去SQLiteStudio看下:
在这里插入图片描述
首先他自己建表了,result就是我们的执行结果,你不要自己尝试是写Sqlite的代码去访问他的result数据,这是不对的,这个序列化的数据是Celery写进来的,至于他是怎样编码的鬼知道,我们正确的操作应该是再通过Celery去访问,可以根据任务ID去获取曾经计算的结果。

re = add.AsyncResult('0b0ebce2-cb17-4b32-8847-68d793205009')
print(re.get())

OK,至此完成了一个持久化层的生产者消费者服务模型搭建。

这个教程当玩具玩下还是可以的,具体的生产环境各种注意事项有空再写吧,学无止境。

这篇关于Sqlite3+RabbitMQ+Celery Python从零开始搭建一个持久化层的生产者消费者服务模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/163708

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

搭建Kafka+zookeeper集群调度

前言 硬件环境 172.18.0.5        kafkazk1        Kafka+zookeeper                Kafka Broker集群 172.18.0.6        kafkazk2        Kafka+zookeeper                Kafka Broker集群 172.18.0.7        kafkazk3

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验