大数据实时依旧是一项很难的技术

2024-01-25 00:10

本文主要是介绍大数据实时依旧是一项很难的技术,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

背景

      自google发布3篇GFS,BigTable,MapReduce已过去近20年之久,市面上针对大数据治理方案也层出不穷,但大数据实时依旧是一项很难得技术。其主要表现在如下方面:

(1)需求实现很难。对数据使用的用户持续增长,用户需求复杂多变,而这种复杂的需求实现又局限于目前的大数据生态,几乎没有某一个组件能解决几乎所有用户需求场景,依旧需要灵活的组合各大数据组件来实现。

(2)实时存储很难。随着场景需求发展,需要数据从离线向实时迈进,要求满足实时场景下逐行插入、低延时随机写、满足实时更新、是否数据具有完整性保证等。

(3)实时分析很难。实时分析场景下需要能够对数据具有快速扫描的能力、能快速过滤、减少数据IO等。

架构演变

hdfs+compaction

         GFS被设计用来可以解决大数据场景下的实时快速分析,扫描批量查询性能优越,但却对数据的随机读写、更新显得力不从心。为满足一个能基于hdfs快速分析且较实时写入的系统,也许会基于如下方式实现,通过spark streaming 程序读取实时流数据,写入至hdfs上,数据分析通过spark近似的程序读取hdfs写入的文件块。

    过一段后发现hdfs小文件过多,已经验证影响hdfs磁盘查询性能。于是考虑采用一个后台线程compaction方式不停对hdfs文件合并,同时还需要考虑合并文件时不能在用户查询过程中进行,否则导致用户分区暂时“丢失”,需要将合并后的文件替换成新的,因此必须保证数据一致性。这样hdfs上可能会存在一个base和landing目录存在,base用来保存已经compaction的数据,loading目录保存待合并的数据,每次都将loading目录下的数据移动的base下完成合并,然后将元数据指向新的分区,并利用试图保证用户看到一致性数据。于是修改为如下架构:

该方案尽管是实时的,但却是伪实时,因为还是小文件,只不过通过小文件合并减少了,即使可以通过文件合并等方式模拟随机写来实现,但这样做会导致成本很高。原因很简单,试图让hdfs做不善长的工作。

hbase+hdfs

     hbase作为bigtable的开源实现,可以做到随机读写,却缺少数据分析性能,于是有人将其改造为下架构:

 数据不断的写入hbase,等积攒至一定大小时,就flush至批层,批层将其刷成一个parquet文件,然后向hdfs上添加一个数据表分区,通知元数据层增加了新分区数据。但这样做就必须要求client端知道有2个系统,否则就不在流与批之间添加一个“连接层”。

实时流计算

     还有一种架构是通过spark streaming,storm,flink等实时处理框架实现的,提供实时读取和处理功能,但这类系统在实时计算和统计时,往往需要与外部存储交互,这样外部数据存储也必须满足行插入、低延时随机读写、快速查询分析、更新等能力,如下图所示,这样导致采用大数据技术来实现变得很复杂。

因此说,大数据实时依旧是一项很难得技术。

但大数据实时真是一项很难得技术吗?

KUDU

kudu介于hdfs与hbase的产品,具有实时写入、实时分析特性,后期市场上出现的hudi也模拟kudu架构实现了自己的版本。

未完待续 ... ...

 

这篇关于大数据实时依旧是一项很难的技术的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/641488

相关文章

详谈redis跟数据库的数据同步问题

《详谈redis跟数据库的数据同步问题》文章讨论了在Redis和数据库数据一致性问题上的解决方案,主要比较了先更新Redis缓存再更新数据库和先更新数据库再更新Redis缓存两种方案,文章指出,删除R... 目录一、Redis 数据库数据一致性的解决方案1.1、更新Redis缓存、删除Redis缓存的区别二

Redis事务与数据持久化方式

《Redis事务与数据持久化方式》该文档主要介绍了Redis事务和持久化机制,事务通过将多个命令打包执行,而持久化则通过快照(RDB)和追加式文件(AOF)两种方式将内存数据保存到磁盘,以防止数据丢失... 目录一、Redis 事务1.1 事务本质1.2 数据库事务与redis事务1.2.1 数据库事务1.

Oracle Expdp按条件导出指定表数据的方法实例

《OracleExpdp按条件导出指定表数据的方法实例》:本文主要介绍Oracle的expdp数据泵方式导出特定机构和时间范围的数据,并通过parfile文件进行条件限制和配置,文中通过代码介绍... 目录1.场景描述 2.方案分析3.实验验证 3.1 parfile文件3.2 expdp命令导出4.总结

更改docker默认数据目录的方法步骤

《更改docker默认数据目录的方法步骤》本文主要介绍了更改docker默认数据目录的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1.查看docker是否存在并停止该服务2.挂载镜像并安装rsync便于备份3.取消挂载备份和迁

不删数据还能合并磁盘? 让电脑C盘D盘合并并保留数据的技巧

《不删数据还能合并磁盘?让电脑C盘D盘合并并保留数据的技巧》在Windows操作系统中,合并C盘和D盘是一个相对复杂的任务,尤其是当你不希望删除其中的数据时,幸运的是,有几种方法可以实现这一目标且在... 在电脑生产时,制造商常为C盘分配较小的磁盘空间,以确保软件在运行过程中不会出现磁盘空间不足的问题。但在

Java如何接收并解析HL7协议数据

《Java如何接收并解析HL7协议数据》文章主要介绍了HL7协议及其在医疗行业中的应用,详细描述了如何配置环境、接收和解析数据,以及与前端进行交互的实现方法,文章还分享了使用7Edit工具进行调试的经... 目录一、前言二、正文1、环境配置2、数据接收:HL7Monitor3、数据解析:HL7Busines

Mybatis拦截器如何实现数据权限过滤

《Mybatis拦截器如何实现数据权限过滤》本文介绍了MyBatis拦截器的使用,通过实现Interceptor接口对SQL进行处理,实现数据权限过滤功能,通过在本地线程变量中存储数据权限相关信息,并... 目录背景基础知识MyBATis 拦截器介绍代码实战总结背景现在的项目负责人去年年底离职,导致前期规

Redis KEYS查询大批量数据替代方案

《RedisKEYS查询大批量数据替代方案》在使用Redis时,KEYS命令虽然简单直接,但其全表扫描的特性在处理大规模数据时会导致性能问题,甚至可能阻塞Redis服务,本文将介绍SCAN命令、有序... 目录前言KEYS命令问题背景替代方案1.使用 SCAN 命令2. 使用有序集合(Sorted Set)

SpringBoot整合Canal+RabbitMQ监听数据变更详解

《SpringBoot整合Canal+RabbitMQ监听数据变更详解》在现代分布式系统中,实时获取数据库的变更信息是一个常见的需求,本文将介绍SpringBoot如何通过整合Canal和Rabbit... 目录需求步骤环境搭建整合SpringBoot与Canal实现客户端Canal整合RabbitMQSp

MyBatis框架实现一个简单的数据查询操作

《MyBatis框架实现一个简单的数据查询操作》本文介绍了MyBatis框架下进行数据查询操作的详细步骤,括创建实体类、编写SQL标签、配置Mapper、开启驼峰命名映射以及执行SQL语句等,感兴趣的... 基于在前面几章我们已经学习了对MyBATis进行环境配置,并利用SqlSessionFactory核