spark SQL优化器catalyst学习

2024-06-02 04:28

本文主要是介绍spark SQL优化器catalyst学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、Catalyst 概述

  1. Catalyst 是 Spark SQL 的优化器,它负责将 SQL 查询转换为物理执行计划。Catalyst 优化器的目标是生成高效的执行计划,以最小化查询的执行时间。它使用了多种优化技术,包括基于规则的优化、基于代价的优化和动态规划等。
  2. 我们写的SQL语句,会经过一个优化器(catalyst),转化为RDD,交给集群执行。
    select * from table_a
  3. 语法。select * table_a
  4. 词法。selectS * from table_a
  5. AST。abstract syntax tree / 抽象语法树 / 语法树 / syntax tree
    暂时无法在飞书文档外展示此内容
  6. 解析引擎:负责将SQL解析成task。Catalyst的地位类似于Calcite(负责Hive SQL解析优化),Spark SQL独有的Catalyst,解析优化。
  7. MySQL
  8. Hive SQL
  9. Spark SQL
  10. Flink SQL
  11. Doris
  12. Presto
  13. 计算引擎:task是谁来执行。
  14. MySQL
  15. MapReduce
  16. Spark
  17. Tez
  18. Flink
  • Spark on Hive和 Hive on spark的区别?
    • Hive on Spark:Hive是Hive SQL,解析引擎;Spark是计算引擎。
    • Spark on Hive:
      • Hive
        1. 代表是数仓(常见的分层);
        2. 理解:Hive SQL,解析引擎。
      • Spark:代表解析引擎、计算引擎。
      • 含义:通过spark SQL做数仓,层与层的转换。
  • SQL到RDD中间经过了一个Catalyst,它就是SparkSQL的核心,是计对 Spark SQL语句执行过程中的查询优化框架,基于Scala函数式编程结构。
  • RDD的运行流程:RDD->DAGScheduler ->TaskScheduler->worrker,任务会按照代码所示运行,依赖开发者的优化,开发者的会在很大程度上影响运行效率。而SparkSQL的Dataset和SQL并不是直接生成计划交给集群执行,而是经过Catalyst的优化器,这个优化器能够自动帮助开发者优化代码
  • 我们要了解SparkSQL的执行流程,那么理解Catalyst的工作流程是非常有必要的。
    二、 Catalyst 的优化过程
    暂时无法在飞书文档外展示此内容
    Catalyst 的优化过程大致可以分为以下几个阶段:
  1. 解析 ( Parsing ):将 SQL 查询解析为抽象语法树 ( AST )。parser模块目前都是使用第三方类库ANTLR进行实现的。在这个过程汇总,会判断SQL语句是否符合规范,比如select from where等这些关键字是否写对。
    暂时无法在飞书文档外展示此内容
  2. 分析 ( Analysis ):对 AST 进行语义分析,检查查询的合法性和完整性。该模块会遍历整个AST,并对AST上的每个节点进行数据类型绑定以及函数绑定,然后根据源数据信息系catelog对数据表中的字段进行解析,此过程会判断SQL语句的表名,字段名是否真的在元数据库里存在。元数据信息主要包括两部分:表的scheme和基本函数信息。
  3. 表的scheme:
    1. 基本定义。列名,数据类型。
    2. 表的数据格式。json、text
    3. 表的物理位置。
  4. 基本函数
    暂时无法在飞书文档外展示此内容
  5. 优化 ( Optimization ):应用各种优化规则和策略,生成不同的执行计划。主要分为RBO和CBO两种优化策略,其中RBO(Rule-Based Optimizer)是基于规则优化,CBO(Cost-Based Optimizer)是基于代价优化。常见的规则有:
  • 谓词下推predicate Pushdown:将过滤操作下推到join之前进行,之后在进行join的时候,数据量将会显著的减少,join耗时必然降低。
    暂时无法在飞书文档外展示此内容
select*
from table1
inner jointable2
on table1.id = table2.id
where table1.age > 20and table2.cid = 1

上面的语句会自动优化为如下所示:

select*
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

即在资产许那阶段就提前将数据进行过滤,后续的join和shuffle数据量会大大减少。

  • 列值裁剪column pruning:在谓词下推后,可以把表中没有用到的列裁剪掉,这一优化一方面大幅度减少了网络,内存的数据量消耗,另一方面对于劣势存储数据库来说大大提高了扫描效率。
selecta.name,a.age,b.cid
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

上面的语句会自动优化如下图所示:

selecta.name,a.age,b.cid
from 
(select name,agefromtable1where table1.age > 20
)    a
inner join
(select cidfromtable2where table2.cid = 1
)    b
on a.id = b.id

就是提前将需要的列查询出来,其他不需要的列裁剪掉。

  • 常量累加 constant folding:比如计算 x + (100 + 80) -> x + 180,虽然是一个很小的改动,但是意义巨大。如果没有进行优化,每一条结果都需要执行一次100 + 80的操作,然后再与结果相加,优化后就不需要再次执行100 + 80的操作。
select 1 + 1 id
fromtable1

上面的语句会自动优化如下图所示:

select 2 id
fromtable1

就是会提前将1 + 1计算成2,再赋给id列的每行,不用每次都计算一次1+1
4. SparkPlanner模块:

  1. 将优化后的逻辑执行计划(OptimizedLogicalPlan)转换成Physical Plan(物理计划),也就是Spark可以真正的执行的计划。比如join算子,Spark根据不同常见为该算子制定了不同的算法策略,有BroadCastHashJoin,ShuffleHashJoin以及SortMergeJoin等,物理执行假话实际上就是在这些具体实现中挑选一个耗时最小的算法实现。
  2. 具体的实现手段:
    1. SparkPlanner对优化后的逻辑计划进行换算,是生成了多个可以执行的物理计划Physical Plan;接着CBO(基于代价优化)优化策略或根据Cost Model算出每个Physical Plan的代价,并选取最小代价的Physical Plan作最终的Physical Plan。
    2. CostmModel模块:主要根据过去的性能统计数据,选择最佳的物理执行计划,这个过程的优化就是CBO(基于代价优化)
    备注:以上2、3、4步骤结合起来,就是catalyst优化器。
  3. 执行物理计划:最后一句最优的物理执行计划,生成Java字节码,将SQL转化为DAG,以RDD的形式进行操作
  4. 选择 ( Selection ):根据代价模型选择最优的执行计划。
  5. 代码生成 ( Code Generation ):将优化后的执行计划转换为 Spark 代码。
    三、 Catalyst 的优化规则
    Catalyst 提供了许多优化规则,用于改进查询的执行计划。以下是一些常见的优化规则:
  6. 列剪枝 ( Column Pruning ):删除不必要的列,减少数据传输。
  7. 分区剪枝 ( Partition Pruning ):根据分区过滤条件,只读取必要的分区。
  8. 谓词下推 ( Predicate Pushdown ):将过滤条件尽可能地向下推送到数据源,减少数据的读取量。
  9. 聚合优化 ( Aggregation Optimization ):合并相同的聚合操作,避免重复计算。
  10. 连接优化 ( Join Optimization ):选择合适的连接算法,优化连接操作。
    四、 Catalyst 的代价模型
    Catalyst 采用了基于规则的代价模型来评估执行计划的代价。代价模型考虑了以下因素:
  11. 数据量 ( Data Volume ):表的数据大小和分区数。
  12. 计算资源 ( Compute Resources ):CPU、内存和网络带宽等。
  13. I/O 开销 ( I/O Overhead ):数据读取和写入的开销。
  14. 数据倾斜 ( Data Skew ):数据分布不均衡导致的性能问题。
    五、 Catalyst 的代码生成
    Catalyst 将优化后的执行计划转换为 Spark 代码,包括RDD操作和SQL表达式。代码生成过程使用了模板和宏来实现代码的重用和简洁性。
    六、总结
    Spark SQL 的 Catalyst 优化器是一个强大而灵活的优化框架,它采用了多种优化技术和策略,以生成高效的执行计划。了解 Catalyst 的优化过程和规则,可以帮助我们更好地编写高效的 Spark SQL 查询。

以上是一个关于 Spark SQL 优化器 Catalyst 的学习文档,希望对你有所帮助。如果你有任何问题或建议,请随时与我交流。

这篇关于spark SQL优化器catalyst学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1023028

相关文章

数据库面试必备之MySQL中的乐观锁与悲观锁

《数据库面试必备之MySQL中的乐观锁与悲观锁》:本文主要介绍数据库面试必备之MySQL中乐观锁与悲观锁的相关资料,乐观锁适用于读多写少的场景,通过版本号检查避免冲突,而悲观锁适用于写多读少且对数... 目录一、引言二、乐观锁(一)原理(二)应用场景(三)示例代码三、悲观锁(一)原理(二)应用场景(三)示例

SQL表间关联查询实例详解

《SQL表间关联查询实例详解》本文主要讲解SQL语句中常用的表间关联查询方式,包括:左连接(leftjoin)、右连接(rightjoin)、全连接(fulljoin)、内连接(innerjoin)、... 目录简介样例准备左外连接右外连接全外连接内连接交叉连接自然连接简介本文主要讲解SQL语句中常用的表

SQL server配置管理器找不到如何打开它

《SQLserver配置管理器找不到如何打开它》最近遇到了SQLserver配置管理器打不开的问题,尝试在开始菜单栏搜SQLServerManager无果,于是将自己找到的方法总结分享给大家,对SQ... 目录方法一:桌面图标进入方法二:运行窗口进入方法三:查找文件路径方法四:检查 SQL Server 安

MySQL 中的 LIMIT 语句及基本用法

《MySQL中的LIMIT语句及基本用法》LIMIT语句用于限制查询返回的行数,常用于分页查询或取部分数据,提高查询效率,:本文主要介绍MySQL中的LIMIT语句,需要的朋友可以参考下... 目录mysql 中的 LIMIT 语句1. LIMIT 语法2. LIMIT 基本用法(1) 获取前 N 行数据(

MySQL 分区与分库分表策略应用小结

《MySQL分区与分库分表策略应用小结》在大数据量、复杂查询和高并发的应用场景下,单一数据库往往难以满足性能和扩展性的要求,本文将详细介绍这两种策略的基本概念、实现方法及优缺点,并通过实际案例展示如... 目录mysql 分区与分库分表策略1. 数据库水平拆分的背景2. MySQL 分区策略2.1 分区概念

MySQL高级查询之JOIN、子查询、窗口函数实际案例

《MySQL高级查询之JOIN、子查询、窗口函数实际案例》:本文主要介绍MySQL高级查询之JOIN、子查询、窗口函数实际案例的相关资料,JOIN用于多表关联查询,子查询用于数据筛选和过滤,窗口函... 目录前言1. JOIN(连接查询)1.1 内连接(INNER JOIN)1.2 左连接(LEFT JOI

MySQL 中查询 VARCHAR 类型 JSON 数据的问题记录

《MySQL中查询VARCHAR类型JSON数据的问题记录》在数据库设计中,有时我们会将JSON数据存储在VARCHAR或TEXT类型字段中,本文将详细介绍如何在MySQL中有效查询存储为V... 目录一、问题背景二、mysql jsON 函数2.1 常用 JSON 函数三、查询示例3.1 基本查询3.2

MySQL中动态生成SQL语句去掉所有字段的空格的操作方法

《MySQL中动态生成SQL语句去掉所有字段的空格的操作方法》在数据库管理过程中,我们常常会遇到需要对表中字段进行清洗和整理的情况,本文将详细介绍如何在MySQL中动态生成SQL语句来去掉所有字段的空... 目录在mysql中动态生成SQL语句去掉所有字段的空格准备工作原理分析动态生成SQL语句在MySQL

MySQL中FIND_IN_SET函数与INSTR函数用法解析

《MySQL中FIND_IN_SET函数与INSTR函数用法解析》:本文主要介绍MySQL中FIND_IN_SET函数与INSTR函数用法解析,本文通过实例代码给大家介绍的非常详细,感兴趣的朋友一... 目录一、功能定义与语法1、FIND_IN_SET函数2、INSTR函数二、本质区别对比三、实际场景案例分

MySQL中的交叉连接、自然连接和内连接查询详解

《MySQL中的交叉连接、自然连接和内连接查询详解》:本文主要介绍MySQL中的交叉连接、自然连接和内连接查询,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、引入二、交php叉连接(cross join)三、自然连接(naturalandroid join)四