本文主要是介绍SparkSQL Catalyst优化器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
文章目录
- RDD 和 SpakSQL 运行时的区别
- Catalyst
- step1:解析 SQL,并且生成 AST(抽象语法树)
- step2:在 AST 中加入元数据信息
- step3:对已经加入元数据的 AST,输入优化器,进行优化
- 谓词下推(Predicate Pushdown)
- 列值裁剪(Column Pruning)
- step4:生成物理计划 RDD
RDD 和 SpakSQL 运行时的区别
RDD 的运行流程
大致运行步骤:先将 RDD 解析为由 Stage 组成的 DAG,后将 Stage 转为 Task 直接运行。
RDD 无法自我优化,RDD 没有 Schema 信息,RDD 可以同时处理结构化和非结构化的数据。
SparkSQL 提供了什么?
和 RDD 不同,SparkSQL 和 Dataset 和 SQL 并不是直接生成计划交给集群执行,而是经过了一个叫 Catalyst 的优化器,这个优化器能够自动帮助开发者优化代码。也就是说,在 SparkSQL 中,开发者的代码即使不够优化,也会被优化为相对较好的形式去执行。
SparkSQL 大部分情况用于处理结构化数据和半结构化数据,所以 SparkSQL 可以获知数据的 Schema,从而根据其 Schema来进行优化。
Catalyst
为了解决过多依赖 Hive 的问题,SparkSQL 使用了一个新的 SQL 优化器替代 Hive 中的优化器,整个 SparkSQL 的架构大致如下:
- 1.API 层简单的说就是 Spark 会通过一些 API 接受 SQL 语句。
- 2.收到 SQL 语句以后,将其交给 Catalyst,Catalyst 负责解析 SQL,生成执行计划等。
- 3.Catalyst 的输出应该是 RDD 的执行计划。
- 4.最终交由集群执行。
step1:解析 SQL,并且生成 AST(抽象语法树)
step2:在 AST 中加入元数据信息
做这一步主要是为了一些优化, 例如 col = col 这样的条件, 下图是一个简略图, 便于理解。
- score.id → id#1#L 为 score.id 生成 id 为 1, 类型是 Long
- score.math_score → math_score#2#L 为 score.math_score 生成 id 为 2, 类型为 Long
- people.id → id#3#L 为 people.id 生成 id 为 3, 类型为 Long
- people.age → age#4#L 为 people.age 生成 id 为 4, 类型为 Long
step3:对已经加入元数据的 AST,输入优化器,进行优化
谓词下推(Predicate Pushdown)
减少操作时候的数据量
列值裁剪(Column Pruning)
在谓词下推后, people 表之上的操作只用到了 id 列, 所以可以把其它列裁剪掉, 这样可以减少处理的数据量, 从而优化处理速度,如下图
百种优化方式, 源码在 org.apache.spark.sql.catalyst.optimizer.Optimizer
step4:生成物理计划 RDD
上面的过程生成的 AST 其实最终还没办法直接运行,这个 AST 叫做逻辑计划,结束后,需要生成 物理计划,从而生成 RDD 来运行。
- 在生成物理计划的时候,会经过成本模型对整课数再次执行优化,选择一个更好的计划
- 在生成物理计划以后,因为考虑到性能,所以会使用代码生成,在机器中运行
总结:
- SparkSQL 和 RDD 不同的主要点是在于其所操作的数据是结构化的,提供了对数据更强的感知和分析能力,能够对代码进行更深层的优化,而这种能力是有一个叫做 Catalyst 的优化器所提供的。
- Catalyst 的主要运作原理是分为三步,先对 SQL 或者 Dataset 的代码解析,生成逻辑计划,后对逻辑计划进行优化,再生成物理计划,最后生成代码到集群中以 RDD 的形式运行。
这篇关于SparkSQL Catalyst优化器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!