春城无处不飞花,小白带你侃SparkStreaming(原理引入篇)

2023-10-11 19:40

本文主要是介绍春城无处不飞花,小白带你侃SparkStreaming(原理引入篇),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

        介绍完了SparkSQL,接下来让我们推开SparkStreaming的大门,接收新知识的洗礼。跟刚入坑SparkSQL时一样,让我们来回顾一下Spark的内置模块
在这里插入图片描述
        相信勤奋好学的大家肯定都还记得的对吧,那么接下来我们就要正式开始学习SparkStreaming咯~

        码字不易,先赞后看,养成习惯!
在这里插入图片描述

文章目录

    • 第一章 Spark Streaming引入
      • 1.1 新的场景需求
      • 1.2 Spark Streaming介绍
      • 1.3 实时计算所处的位置
    • 第二章 SparkStreaming原理
      • 2.1 SparkStreaming原理
        • 2.1.1 整体流程
        • 2.1.2 数据抽象
      • 2.2 DStream相关操作
        • 2.2.1 Transformations
        • 2.2.2 Output/Action
      • 2.3 总结


第一章 Spark Streaming引入

1.1 新的场景需求

  • 集群监控

        一般的大型集群和平台, 都需要对其进行监控的需求。要针对各种数据库, 包括 MySQL, HBase 等进行监控;要针对应用进行监控, 例如 Tomcat, Nginx, Node.js 等;要针对硬件的一些指标进行监控, 例如 CPU, 内存, 磁盘 等。
在这里插入图片描述

  • 双11实时交易数据大屏

在这里插入图片描述

  • 智慧公厕
    在这里插入图片描述

1.2 Spark Streaming介绍

  • 官网
    http://spark.apache.org/streaming/
  • 概述

        Spark Streaming是一个基于Spark Core之上的实时计算框架,可以从很多数据源消费数据并对数据进行实时的处理,具有高吞吐量容错能力强等特点。
在这里插入图片描述

  • Spark Streaming的特点

1.易用

        可以像编写离线批处理一样去编写流式程序,支持java/scala/python语言。

2.容错

        SparkStreaming在没有额外代码和配置的情况下可以恢复丢失的工作。

3.易整合到Spark体系

        流式处理与批处理和交互式查询相结合。

1.3 实时计算所处的位置

在这里插入图片描述
        我们也可以看到SparkStreaming也是做分布式实时计算的,但具体其原理是什么,如何操作?具体讲解请往下看。
        

第二章 SparkStreaming原理

2.1 SparkStreaming原理

2.1.1 整体流程

        Spark Streaming中,会有一个接收器组件Receiver,作为一个长期运行的task跑在一个Executor上。Receiver接收外部的数据流形成input DStream

        DStream会被按照时间间隔划分成一批一批的RDD,当批处理间隔缩短到秒级时,便可以用于处理实时数据流。时间间隔的大小可以由参数指定,一般设置在500毫秒到几秒之间

        对DStream进行操作就是对RDD进行操作,计算处理的结果可以传给外部系统。

        Spark Streaming的工作流程像下面的图所示一样,接收到实时数据后,给数据分批次,然后传给Spark Engine(引擎)处理最后生成该批次的结果。
在这里插入图片描述

2.1.2 数据抽象

        Spark Streaming的基础抽象是DStream(Discretized Stream,离散化数据流,连续不断的数据流),代表持续性的数据流和经过各种Spark算子操作后的结果数据流

  • 可以从以下多个角度深入理解DStream

        1.DStream本质上就是一系列时间上连续的RDD

在这里插入图片描述
        2.对DStream的数据的进行操作也是按照RDD为单位来进行的
在这里插入图片描述
        3.容错性

        底层RDD之间存在依赖关系,DStream直接也有依赖关系,RDD具有容错性,那么DStream也具有容错性

        如图:

        每一个椭圆形表示一个RDD
        椭圆形中的每个圆形代表一个RDD中的一个Partition分区
        每一列的多个RDD表示一个DStream(图中有三列所以有三个DStream)
        每一行最后一个RDD则表示每一个Batch Size所产生的中间结果RDD

在这里插入图片描述

        4.准实时性/近实时性

        Spark Streaming将流式计算分解成多个Spark Job,对于每一时间段数据的处理都会经过Spark DAG图分解以及Spark的任务集的调度过程。

        对于目前版本的Spark Streaming而言,其最小的Batch Size的选取在0.5~5秒钟之间

        所以Spark Streaming能够满足流式准实时计算场景,对实时性要求非常高的如高频实时交易场景则不太适合

  • 总结

        简单来说DStream就是对RDD的封装,你对DStream进行操作,就是对RDD进行操作。对于DataFrame/DataSet/DStream来说本质上都可以理解成RDD
在这里插入图片描述

2.2 DStream相关操作

        DStream上的操作与RDD的类似,分为以下两种:

  • Transformations(转换)
  • Output Operations(输出)/Active
2.2.1 Transformations
  • 常见Transformation—无状态转换每个批次的处理不依赖于之前批次的数据
    在这里插入图片描述
  • 特殊的Transformations有状态转换特殊的Transformations—有状态转换:当前批次的处理需要使用之前批次的数据或者中间结果

         有状态转换包括基于追踪状态变化的转换(updateStateByKey)滑动窗口的转换

  • 1.UpdateStateByKey(func)
  • 2.Window Operations 窗口操作
2.2.2 Output/Action

        Output Operations可以将DStream的数据输出到外部的数据库或文件系统。当某个Output Operations被调用时,spark streaming程序才会开始真正的计算过程(与RDD的Action类似)
在这里插入图片描述

2.3 总结

        如果说用一幅图来总结上面的核心知识点,我觉得下面这个流程图就很不错~

在这里插入图片描述


        好了,本篇主要讲解的都是基于SparkStreaming的基础理论,下一篇博客博主将带来实战篇,敬请期待!!!受益的朋友或对大数据技术感兴趣的伙伴记得点赞关注支持一波(^U^)ノ~YO
        
在这里插入图片描述

这篇关于春城无处不飞花,小白带你侃SparkStreaming(原理引入篇)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/190392

相关文章

在React中引入Tailwind CSS的完整指南

《在React中引入TailwindCSS的完整指南》在现代前端开发中,使用UI库可以显著提高开发效率,TailwindCSS是一个功能类优先的CSS框架,本文将详细介绍如何在Reac... 目录前言一、Tailwind css 简介二、创建 React 项目使用 Create React App 创建项目

Java编译生成多个.class文件的原理和作用

《Java编译生成多个.class文件的原理和作用》作为一名经验丰富的开发者,在Java项目中执行编译后,可能会发现一个.java源文件有时会产生多个.class文件,从技术实现层面详细剖析这一现象... 目录一、内部类机制与.class文件生成成员内部类(常规内部类)局部内部类(方法内部类)匿名内部类二、

Python中随机休眠技术原理与应用详解

《Python中随机休眠技术原理与应用详解》在编程中,让程序暂停执行特定时间是常见需求,当需要引入不确定性时,随机休眠就成为关键技巧,下面我们就来看看Python中随机休眠技术的具体实现与应用吧... 目录引言一、实现原理与基础方法1.1 核心函数解析1.2 基础实现模板1.3 整数版实现二、典型应用场景2

Java的IO模型、Netty原理解析

《Java的IO模型、Netty原理解析》Java的I/O是以流的方式进行数据输入输出的,Java的类库涉及很多领域的IO内容:标准的输入输出,文件的操作、网络上的数据传输流、字符串流、对象流等,这篇... 目录1.什么是IO2.同步与异步、阻塞与非阻塞3.三种IO模型BIO(blocking I/O)NI

一文教你Python引入其他文件夹下的.py文件

《一文教你Python引入其他文件夹下的.py文件》这篇文章主要为大家详细介绍了如何在Python中引入其他文件夹里的.py文件,并探讨几种常见的实现方式,有需要的小伙伴可以根据需求进行选择... 目录1. 使用sys.path动态添加路径2. 使用相对导入(适用于包结构)3. 使用pythonPATH环境

JAVA封装多线程实现的方式及原理

《JAVA封装多线程实现的方式及原理》:本文主要介绍Java中封装多线程的原理和常见方式,通过封装可以简化多线程的使用,提高安全性,并增强代码的可维护性和可扩展性,需要的朋友可以参考下... 目录前言一、封装的目标二、常见的封装方式及原理总结前言在 Java 中,封装多线程的原理主要围绕着将多线程相关的操

kotlin中的模块化结构组件及工作原理

《kotlin中的模块化结构组件及工作原理》本文介绍了Kotlin中模块化结构组件,包括ViewModel、LiveData、Room和Navigation的工作原理和基础使用,本文通过实例代码给大家... 目录ViewModel 工作原理LiveData 工作原理Room 工作原理Navigation 工

Java的volatile和sychronized底层实现原理解析

《Java的volatile和sychronized底层实现原理解析》文章详细介绍了Java中的synchronized和volatile关键字的底层实现原理,包括字节码层面、JVM层面的实现细节,以... 目录1. 概览2. Synchronized2.1 字节码层面2.2 JVM层面2.2.1 ente

MySQL的隐式锁(Implicit Lock)原理实现

《MySQL的隐式锁(ImplicitLock)原理实现》MySQL的InnoDB存储引擎中隐式锁是一种自动管理的锁,用于保证事务在行级别操作时的数据一致性和安全性,本文主要介绍了MySQL的隐式锁... 目录1. 背景:什么是隐式锁?2. 隐式锁的工作原理3. 隐式锁的类型4. 隐式锁的实现与源代码分析4

MySQL中Next-Key Lock底层原理实现

《MySQL中Next-KeyLock底层原理实现》Next-KeyLock是MySQLInnoDB存储引擎中的一种锁机制,结合记录锁和间隙锁,用于高效并发控制并避免幻读,本文主要介绍了MySQL中... 目录一、Next-Key Lock 的定义与作用二、底层原理三、源代码解析四、总结Next-Key L