Python迁移MySQL数据到MongoDB和Elasticsearch

2024-05-08 14:32

本文主要是介绍Python迁移MySQL数据到MongoDB和Elasticsearch,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在工作中经常遇到一些需要批量导入数据到NoSql中。
比如我们上线一个新的功能,需要把mysql的一些数据批量导入到Elaticsearch或者mongodb中。这里使用Python代码简洁,方便高效。
根据需求变更参数,sql。执行以下python脚本即可。

import pymysql, json
import pymongo
from elasticsearch import Elasticsearch, helpersclass DB:def __init__(self, host='localhost', port=3306, db='', user='', passwd='', charset='utf8'):# 建立连接self.conn = pymysql.connect(host=host, port=port, db=db, user=user, passwd=passwd, charset=charset)# 创建游标,操作设置为字典类型self.cur = self.conn.cursor(cursor=pymysql.cursors.DictCursor)def __enter__(self):# 返回游标return self.curdef __exit__(self, exc_type, exc_val, exc_tb):# 提交数据库并执行self.conn.commit()# 关闭游标self.cur.close()# 关闭数据库连接self.conn.close()es = Elasticsearch(hosts=["127.0.0.1:9200"],# 在做任何操作之前,先进行嗅探sniff_on_start=True,# 节点没有响应时,进行刷新,重新连接sniff_on_connection_fail=True,# 每 60 秒刷新一次sniffer_timeout=60)client = pymongo.MongoClient("mongodb://127.0.0.1:27017/")
db_list = client.list_database_names()
db = client['giftConfig']
collection = db['giftInfo']if __name__ == '__main__':with DB(host='127.0.0.1', user='root', passwd='123456', db='test') as db:sql = 'select * from GiftConfig where id < {} order by id desc limit 10'maxId = 201db.execute(sql.format(maxId))while db.rowcount > 0:for row in db:# 字典格式print(row)maxId = row['id']"""mysql 数据转存到es"""# es相同id会覆盖es.index(index="gift_config_index", doc_type="gift_info", id=maxId, body=row)"""mysql数据转存到mongodb """# mongodb 无法保存decimal 需要转换成float 数据库设置id唯一索引 或者row['_id'] = maxId 设置唯一索引 db.giftInfo.createIndex({"id":1},{"unique":true})row['unitPrice'] = float(row['unitPrice'])try:collection.insert_one(row)except:print("mongodb insert error id:%d" %(maxId))db.execute(sql.format(maxId))

这篇关于Python迁移MySQL数据到MongoDB和Elasticsearch的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/970582

相关文章

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

MySQL的JDBC编程详解

《MySQL的JDBC编程详解》:本文主要介绍MySQL的JDBC编程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言一、前置知识1. 引入依赖2. 认识 url二、JDBC 操作流程1. JDBC 的写操作2. JDBC 的读操作总结前言本文介绍了mysq

java.sql.SQLTransientConnectionException连接超时异常原因及解决方案

《java.sql.SQLTransientConnectionException连接超时异常原因及解决方案》:本文主要介绍java.sql.SQLTransientConnectionExcep... 目录一、引言二、异常信息分析三、可能的原因3.1 连接池配置不合理3.2 数据库负载过高3.3 连接泄漏

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函