从北京到南京:偶数在能源行业的数据迁移实践

2023-10-21 04:20

本文主要是介绍从北京到南京:偶数在能源行业的数据迁移实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

能源行业的数字化转型

当前,大数据技术在以电力为代表的能源行业不断推进,同时,分布式能源、储能、电网技术不断改进,电力行业的数字化转型充满了机遇和挑战。

一方面,电力行业本身自动化程度高、信息化基础好、系统完备,电力企业在数字化转型上,更加关注通过物联网、大数据、人工智能等新技术的应用挖掘数据的价值。另一方面,在信息化建设和数字化转型的过程中,智能传感器生态链尚不完善,海量数据闲置无法发挥价值,错综复杂的系统形成信息孤岛无法有效融合。

因此,为了充分挖掘,实现数据价值,电力企业首先要考虑如何实现数据的高效整合,以及如何形成数据资产。

在这个背景下,偶数科技为国内某大型能源集团进行了数据迁移并成功实现了大数据底座的优化升级。


平台升级改造迫在眉睫

2023年,该能源集团数据中心在经过多年的使用后即将进行升级改造。由于业务调整,数据中心的地理位置也随之变更,需要将原北京数据中心迁移至南京的新数据中心。同时,当前数据平台系统已经遇到瓶颈,无法有效满足业务需求,亟需对管理架构进行升级改造。


平台技术瓶颈定位

1. 平台拓展能力受限,当前集群规模已达到上限,形成性能瓶颈,如果拓展节点就需要增加新的集群,不仅系统变得复杂,管理维护也变得异常困难。2. 平台数据更新能力受制约,需要原生支持 HDFS 存储上的 Update/Delete 操作。3. 原平台达到性能瓶颈,需要新平台能大幅改善数据库系统插入和查询的性能。


核心组件选型

在对现有分析型国产数据库进行横向调研和测评后,该能源集团对 OushuDB 新产品特性产生了极大的兴趣和期待。一方面是 OushuDB 产品本身对 HDFS 操作的灵活支持,另一方面客户非常认可偶数自研存储的性能及其可插拔存储架构。经过多轮的沟通和测试,确定了以 OushuDB 为核心的数据平台解决方案,并正式进入了数据迁移改造阶段。


整体迁移方案

由于北京数据中心原来的服务器机型老旧,不兼容南京数据中心即将搭建的新集群,因此本次迁移通过搭建临时集群的方式,在北京数据中心将原有数据文件同步至临时集群,再将临时集群搬迁至南京数据中心,临时集群和南京集群组建新的OushuDB 集群,导入备份数据。最后补录迁移期间数据,完成整体迁移。

平台迁移时间线

迁移实施过程

本次大数据平台搬迁实施总体目标是完成大数据平台由北京机房搬迁至南京机房,本次迁移分为两个主要步骤,第一是北京机房的数据备份,迁移至南京机房,第二是新集群的部署和系统及数据验证,再进行业务切换。

北京机房搭建临时集群

为了保证搬迁效率和控制成本,在搭建临时大数据集群时采用规模最小原则,根据数据实际情况,本次项目使用了5台服务器以支撑数据迁移。

在临时集群搭建完毕后,通过数据快照的方式,将北京机房通过万兆局域网进行跨集群数据迁移,数据由原大数据平台迁移至新集群环境。

临时集群搬迁

待北京机房新大数据新集群数据迁移完成后,将新集群下电搬迁至南京机房。将5个节点新集群下架,通过物流运输的方式,将5个节点组成的临时集群搬迁至南京机房。

南京机房集群部署及运行

同步进行部署在虚拟化集群的大数据平台应用功能迁移,新集群重新加电启动,进行系统和数据验证后,依托广域网络完成增量数据迁移,完成系统功能和数据验证。

1. 在南京机房上架新服务器

将10台服务器进行上架。设备网络互联、设备电源连接、打印标签。服务器安装操作系统,网络设备配置、调试;

2. 大数据平台虚拟化应用部署

在南京机房虚拟化集群部署大数据平台的各应用及服务;

3. 新大数据集群搬迁及扩容

待5节点集群迁移至南京机房,进行设备网络互联、设备电源连接、打印标签、启动设备,对集群平台进行功能验证,并将南京机房现有的服务器10台纳入新大数据集群,形成15节点集群;

4. 增量数据同步,新、旧集群并列运行

通过大数据平台数据补招和离线文件导入功能,将大数据搬迁期间增量运行数据迁移至新集群,并进行新集群业务功能验证;核实数据无问题后,将剩余相关业务整体切换至南京机房大数据集群。


平台能力提升
布局实时分析和人工智能

通过本次数据迁移,该客户不仅实现了从北京机房到南京机房无损、平稳的数据搬迁,同时还通过这次契机实现了大数据平台的升级,并在以下几个方面得到了显著提升。

1. 平台性能大幅提升,更换采用新一代向量化执行引擎,让硬件资源得以充分释放,减少了业务分析的延迟。2. 平台可靠性得到有力保障,通过多活主节点保证更高的系统可用性,规避单主节点的故障风险。3. 平台动态水平扩展,通过存算分离、可拓展技术架构解决了集群规模受限的长期困扰。4. 共享一份数据,解决数据孤岛,减少冗余。通过开放的存储格式让所有数据形成统一的一份数据,减少了不同集群之间底层数据存储不兼容的问题。

除了以上平台能力建设的大幅提升,该客户基于平台开放格式的统一数据存储,还可以选用和优化不同大数据组件(如处理结构化数据、非结构化数据和流式数据的不同计算引擎),可落地的多引擎融合能力,让该客户在能源领域提早布局实时分析和人工智能,抓住数字化转型先机。

这篇关于从北京到南京:偶数在能源行业的数据迁移实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/251881

相关文章

Spring Boot 配置文件之类型、加载顺序与最佳实践记录

《SpringBoot配置文件之类型、加载顺序与最佳实践记录》SpringBoot的配置文件是灵活且强大的工具,通过合理的配置管理,可以让应用开发和部署更加高效,无论是简单的属性配置,还是复杂... 目录Spring Boot 配置文件详解一、Spring Boot 配置文件类型1.1 applicatio

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T

tomcat多实例部署的项目实践

《tomcat多实例部署的项目实践》Tomcat多实例是指在一台设备上运行多个Tomcat服务,这些Tomcat相互独立,本文主要介绍了tomcat多实例部署的项目实践,具有一定的参考价值,感兴趣的可... 目录1.创建项目目录,测试文China编程件2js.创建实例的安装目录3.准备实例的配置文件4.编辑实例的

Python 中的异步与同步深度解析(实践记录)

《Python中的异步与同步深度解析(实践记录)》在Python编程世界里,异步和同步的概念是理解程序执行流程和性能优化的关键,这篇文章将带你深入了解它们的差异,以及阻塞和非阻塞的特性,同时通过实际... 目录python中的异步与同步:深度解析与实践异步与同步的定义异步同步阻塞与非阻塞的概念阻塞非阻塞同步

Python Dash框架在数据可视化仪表板中的应用与实践记录

《PythonDash框架在数据可视化仪表板中的应用与实践记录》Python的PlotlyDash库提供了一种简便且强大的方式来构建和展示互动式数据仪表板,本篇文章将深入探讨如何使用Dash设计一... 目录python Dash框架在数据可视化仪表板中的应用与实践1. 什么是Plotly Dash?1.1

Redis 中的热点键和数据倾斜示例详解

《Redis中的热点键和数据倾斜示例详解》热点键是指在Redis中被频繁访问的特定键,这些键由于其高访问频率,可能导致Redis服务器的性能问题,尤其是在高并发场景下,本文给大家介绍Redis中的热... 目录Redis 中的热点键和数据倾斜热点键(Hot Key)定义特点应对策略示例数据倾斜(Data S

springboot集成Deepseek4j的项目实践

《springboot集成Deepseek4j的项目实践》本文主要介绍了springboot集成Deepseek4j的项目实践,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价... 目录Deepseek4j快速开始Maven 依js赖基础配置基础使用示例1. 流式返回示例2. 进阶

Python实现将MySQL中所有表的数据都导出为CSV文件并压缩

《Python实现将MySQL中所有表的数据都导出为CSV文件并压缩》这篇文章主要为大家详细介绍了如何使用Python将MySQL数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到... python将mysql数据库中所有表的数据都导出为CSV文件到一个目录,并压缩为zip文件到另一个