Spark学习笔记(详解,附代码实列和图解)----------RDD(三)持久化

2024-01-10 20:48

本文主要是介绍Spark学习笔记(详解,附代码实列和图解)----------RDD(三)持久化,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

六. RDD 持久化

当需要对RDD连续使用时,重复调用是否就可以避免从头再来呢?
在这里插入图片描述

val list = List("Hello Scala", "Hello Spark")val rdd = sc.makeRDD(list)val flatRDD = rdd.flatMap(_.split(" "))val mapRDD = flatRDD.map(word=>{println("@@@@@@@@@@@@")(word,1)})val reduceRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_+_)reduceRDD.collect().foreach(println)println("/****************")val groupRDD = mapRDD.groupByKey()groupRDD.collect().foreach(println)

输出:
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
(Spark,1)
(Hello,2)
(Scala,1)
/****************
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
(Spark,CompactBuffer(1))
(Hello,CompactBuffer(1, 1))
(Scala,CompactBuffer(1))

由输出可见,mapRDD从开始又执行了一次,所以效率很低,那能否有什么办法让rdd暂时保存数据呢?

  • 答案是使用持久化

在这里插入图片描述

1.RDD持久化原理

Spark中非常重要的一个功能特性就是可以将RDD持久化在内存中,当对RDD执行持久化操作时,每个节点都会将自己操作的RDD的partition持久化到内存中,并且在之后对该RDD的反复使用中,直接使用内存缓存的partition。这样的话,对于针对一个RDD反复执行多个操作的场景,就只要针对RDD计算一次即可,后面直接使用该RDD,而不用反复计算该RDD。

2.RDD持久化的使用场景

(1).第一次加载大量的数据到RDD中
(2).频繁的动态更新RDD Cache数据,不适合使用Spark Cache、Spark lineage

3.RDD持久化方法

1) RDD Cache 缓存 和 persist

RDD 通过 Cache 或者 Persist 方法将前面的计算结果缓存,默认情况下会把数据以缓存在 JVM 的堆内存中。但是并不是这两个方法被调用时立即缓存,而是触发后面的 action 算子时,该 RDD 将会被缓存在计算节点的内存中,并供后面重用。

val list = List("Hello Scala", "Hello Spark")val rdd = sc.makeRDD(list)val flatRDD = rdd.flatMap(_.split(" "))val mapRDD = flatRDD.map(word=>{println("@@@@@@@@@@@@")(word,1)})mapRDD.cache()// 持久化操作必须在行动算子执行时完成的。//mapRDD.persist(StorageLevel.DISK_ONLY)val reduceRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_+_)reduceRDD.collect().foreach(println)println("/****************")val groupRDD = mapRDD.groupByKey()groupRDD.collect().foreach(println)

输出:
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
(Spark,1)
(Hello,2)
(Scala,1)
/****************
(Spark,CompactBuffer(1))
(Hello,CompactBuffer(1, 1))
(Scala,CompactBuffer(1))

使用persist方法 可以更改存储级别

mapRdd.persist(StorageLevel.MEMORY_AND_DISK_2)

在这里插入图片描述

  • cache()和persist()的区别在于,cahe()是persist()的一种简化方式,cache()的底层就是调用的persist()的无参版本,即persist(MEMORY_ONLY)

缓存有可能丢失,或者存储于内存的数据由于内存不足而被删除,RDD 的缓存容错机制保证了即使缓存丢失也能保证计算的正确执行。通过基于 RDD 的一系列转换,丢失的数据会被重算,由于 RDD 的各个 Partition 是相对独立的,因此只需要计算丢失的部分即可,并不需要重算全部Partition。
Spark 会自动对一些 Shuffle 操作的中间数据做持久化操作(比如:reduceByKey)。这样做的目的是为了当一个节点 Shuffle 失败了避免重新计算整个输入。但是,在实际使用的时候,如果想重用数据,仍然建议调用 persist 或 cache。

2).RDD CheckPoint 检查点

所谓的检查点其实就是通过将 RDD 中间结果写入磁盘

由于血缘依赖过长会造成容错成本过高,这样就不如在中间阶段做检查点容错,如果检查点之后有节点出现问题,可以从检查点开始重做血缘,减少了开销。

  • 对 RDD 进行 checkpoint 操作并不会马上被执行,必须执行 Action 操作才能触发。
  • Checkpoint 的数据通常存储在 HDFS 等容错、高可用的文件系统,可靠性高。
	sc.setCheckpointDir("cp")val list = List("Hello Scala", "Hello Spark")val rdd = sc.makeRDD(list)val flatRDD = rdd.flatMap(_.split(" "))val mapRDD = flatRDD.map(word=>{println("@@@@@@@@@@@@")(word,1)})// checkpoint 需要落盘,需要指定检查点保存路径// 检查点路径保存的文件,当作业执行完毕后,不会被删除// 一般保存路径都是在分布式存储系统:HDFSmapRDD.checkpoint()val reduceRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_+_)reduceRDD.collect().foreach(println)println("/**************************************")val groupRDD = mapRDD.groupByKey()groupRDD.collect().foreach(println)

输出:
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
@@@@@@@@@@@@
(Spark,1)
(Hello,2)
(Scala,1)
/**************************************
(Spark,CompactBuffer(1))
(Hello,CompactBuffer(1, 1))
(Scala,CompactBuffer(1))
在这里插入图片描述

3).缓存和检查点区别

cache :
1.将数据临时存储在内存中进行数据重用
2.会在血缘关系中添加新的依赖。一旦,出现问题,可以重头读取数据
persist :
1.将数据临时存储在磁盘文件中进行数据重用
2.涉及到磁盘IO,性能较低,但是数据安全
3.如果作业执行完毕,临时保存的数据文件就会丢失
checkpoint :
1.将数据长久地保存在磁盘文件中进行数据重用
2.涉及到磁盘IO,性能较低,但是数据安全
3.为了保证数据安全,所以一般情况下,会独立执行作业
4.为了能够提高效率,一般情况下,是需要和cache联合使用
5.执行过程中,会切断血缘关系。重新建立新的血缘关系,checkpoint等同于改变数据源

cache改变血缘关系:

val list = List("Hello Scala", "Hello Spark")val rdd = sc.makeRDD(list)val flatRDD = rdd.flatMap(_.split(" "))val mapRDD = flatRDD.map(word=>{(word,1)})mapRDD.cache()println(mapRDD.toDebugString)val reduceRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_+_)reduceRDD.collect().foreach(println)println("/**************************************")println(mapRDD.toDebugString)

(1) MapPartitionsRDD[2] at map at RDD_Perist.scala:84 [Memory Deserialized 1x Replicated]
| MapPartitionsRDD[1] at flatMap at RDD_Perist.scala:83 [Memory Deserialized 1x Replicated]
| ParallelCollectionRDD[0] at makeRDD at RDD_Perist.scala:82 [Memory Deserialized 1x Replicated]
(Spark,1)
(Hello,2)
(Scala,1)
/**************************************
(1) MapPartitionsRDD[2] at map at RDD_Perist.scala:84 [Memory Deserialized 1x Replicated]
| CachedPartitions: 1; MemorySize: 368.0 B; ExternalBlockStoreSize: 0.0 B; DiskSize: 0.0 B
| MapPartitionsRDD[1] at flatMap at RDD_Perist.scala:83 [Memory Deserialized 1x Replicated]
| ParallelCollectionRDD[0] at makeRDD at RDD_Perist.scala:82 [Memory Deserialized 1x Replicated]

Checkpoint切断血缘关系:

sc.setCheckpointDir("cp")val list = List("Hello Scala", "Hello Spark")val rdd = sc.makeRDD(list)val flatRDD = rdd.flatMap(_.split(" "))val mapRDD = flatRDD.map(word=>{(word,1)})mapRDD.checkpoint()println(mapRDD.toDebugString)val reduceRDD: RDD[(String, Int)] = mapRDD.reduceByKey(_+_)reduceRDD.collect().foreach(println)println("/**************************************")println(mapRDD.toDebugString)

(1) MapPartitionsRDD[2] at map at RDD_Perist.scala:84 []
| MapPartitionsRDD[1] at flatMap at RDD_Perist.scala:83 []
| ParallelCollectionRDD[0] at makeRDD at RDD_Perist.scala:82 []
(Spark,1)
(Hello,2)
(Scala,1)
/**************************************
(1) MapPartitionsRDD[2] at map at RDD_Perist.scala:84 []
| ReliableCheckpointRDD[4] at collect at RDD_Perist.scala:91 []

建议对 checkpoint()的 RDD 使用 Cache 缓存,这样 checkpoint 的 job 只需从 Cache 缓存中读取数据即可,否则需要再从头计算一次 RDD。

//一起使用
mapRDD.cache()
mapRDD.checkpoint()

这篇关于Spark学习笔记(详解,附代码实列和图解)----------RDD(三)持久化的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/592026

相关文章

MySQL 中的 CAST 函数详解及常见用法

《MySQL中的CAST函数详解及常见用法》CAST函数是MySQL中用于数据类型转换的重要函数,它允许你将一个值从一种数据类型转换为另一种数据类型,本文给大家介绍MySQL中的CAST... 目录mysql 中的 CAST 函数详解一、基本语法二、支持的数据类型三、常见用法示例1. 字符串转数字2. 数字

SpringBoot中SM2公钥加密、私钥解密的实现示例详解

《SpringBoot中SM2公钥加密、私钥解密的实现示例详解》本文介绍了如何在SpringBoot项目中实现SM2公钥加密和私钥解密的功能,通过使用Hutool库和BouncyCastle依赖,简化... 目录一、前言1、加密信息(示例)2、加密结果(示例)二、实现代码1、yml文件配置2、创建SM2工具

MyBatis-Plus 中 nested() 与 and() 方法详解(最佳实践场景)

《MyBatis-Plus中nested()与and()方法详解(最佳实践场景)》在MyBatis-Plus的条件构造器中,nested()和and()都是用于构建复杂查询条件的关键方法,但... 目录MyBATis-Plus 中nested()与and()方法详解一、核心区别对比二、方法详解1.and()

Spring IoC 容器的使用详解(最新整理)

《SpringIoC容器的使用详解(最新整理)》文章介绍了Spring框架中的应用分层思想与IoC容器原理,通过分层解耦业务逻辑、数据访问等模块,IoC容器利用@Component注解管理Bean... 目录1. 应用分层2. IoC 的介绍3. IoC 容器的使用3.1. bean 的存储3.2. 方法注

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

Python函数作用域示例详解

《Python函数作用域示例详解》本文介绍了Python中的LEGB作用域规则,详细解析了变量查找的四个层级,通过具体代码示例,展示了各层级的变量访问规则和特性,对python函数作用域相关知识感兴趣... 目录一、LEGB 规则二、作用域实例2.1 局部作用域(Local)2.2 闭包作用域(Enclos

Python实现对阿里云OSS对象存储的操作详解

《Python实现对阿里云OSS对象存储的操作详解》这篇文章主要为大家详细介绍了Python实现对阿里云OSS对象存储的操作相关知识,包括连接,上传,下载,列举等功能,感兴趣的小伙伴可以了解下... 目录一、直接使用代码二、详细使用1. 环境准备2. 初始化配置3. bucket配置创建4. 文件上传到os

Java内存分配与JVM参数详解(推荐)

《Java内存分配与JVM参数详解(推荐)》本文详解JVM内存结构与参数调整,涵盖堆分代、元空间、GC选择及优化策略,帮助开发者提升性能、避免内存泄漏,本文给大家介绍Java内存分配与JVM参数详解,... 目录引言JVM内存结构JVM参数概述堆内存分配年轻代与老年代调整堆内存大小调整年轻代与老年代比例元空

Python中注释使用方法举例详解

《Python中注释使用方法举例详解》在Python编程语言中注释是必不可少的一部分,它有助于提高代码的可读性和维护性,:本文主要介绍Python中注释使用方法的相关资料,需要的朋友可以参考下... 目录一、前言二、什么是注释?示例:三、单行注释语法:以 China编程# 开头,后面的内容为注释内容示例:示例:四