spark SQL优化器catalyst学习

2024-06-02 04:28

本文主要是介绍spark SQL优化器catalyst学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、Catalyst 概述

  1. Catalyst 是 Spark SQL 的优化器,它负责将 SQL 查询转换为物理执行计划。Catalyst 优化器的目标是生成高效的执行计划,以最小化查询的执行时间。它使用了多种优化技术,包括基于规则的优化、基于代价的优化和动态规划等。
  2. 我们写的SQL语句,会经过一个优化器(catalyst),转化为RDD,交给集群执行。
    select * from table_a
  3. 语法。select * table_a
  4. 词法。selectS * from table_a
  5. AST。abstract syntax tree / 抽象语法树 / 语法树 / syntax tree
    暂时无法在飞书文档外展示此内容
  6. 解析引擎:负责将SQL解析成task。Catalyst的地位类似于Calcite(负责Hive SQL解析优化),Spark SQL独有的Catalyst,解析优化。
  7. MySQL
  8. Hive SQL
  9. Spark SQL
  10. Flink SQL
  11. Doris
  12. Presto
  13. 计算引擎:task是谁来执行。
  14. MySQL
  15. MapReduce
  16. Spark
  17. Tez
  18. Flink
  • Spark on Hive和 Hive on spark的区别?
    • Hive on Spark:Hive是Hive SQL,解析引擎;Spark是计算引擎。
    • Spark on Hive:
      • Hive
        1. 代表是数仓(常见的分层);
        2. 理解:Hive SQL,解析引擎。
      • Spark:代表解析引擎、计算引擎。
      • 含义:通过spark SQL做数仓,层与层的转换。
  • SQL到RDD中间经过了一个Catalyst,它就是SparkSQL的核心,是计对 Spark SQL语句执行过程中的查询优化框架,基于Scala函数式编程结构。
  • RDD的运行流程:RDD->DAGScheduler ->TaskScheduler->worrker,任务会按照代码所示运行,依赖开发者的优化,开发者的会在很大程度上影响运行效率。而SparkSQL的Dataset和SQL并不是直接生成计划交给集群执行,而是经过Catalyst的优化器,这个优化器能够自动帮助开发者优化代码
  • 我们要了解SparkSQL的执行流程,那么理解Catalyst的工作流程是非常有必要的。
    二、 Catalyst 的优化过程
    暂时无法在飞书文档外展示此内容
    Catalyst 的优化过程大致可以分为以下几个阶段:
  1. 解析 ( Parsing ):将 SQL 查询解析为抽象语法树 ( AST )。parser模块目前都是使用第三方类库ANTLR进行实现的。在这个过程汇总,会判断SQL语句是否符合规范,比如select from where等这些关键字是否写对。
    暂时无法在飞书文档外展示此内容
  2. 分析 ( Analysis ):对 AST 进行语义分析,检查查询的合法性和完整性。该模块会遍历整个AST,并对AST上的每个节点进行数据类型绑定以及函数绑定,然后根据源数据信息系catelog对数据表中的字段进行解析,此过程会判断SQL语句的表名,字段名是否真的在元数据库里存在。元数据信息主要包括两部分:表的scheme和基本函数信息。
  3. 表的scheme:
    1. 基本定义。列名,数据类型。
    2. 表的数据格式。json、text
    3. 表的物理位置。
  4. 基本函数
    暂时无法在飞书文档外展示此内容
  5. 优化 ( Optimization ):应用各种优化规则和策略,生成不同的执行计划。主要分为RBO和CBO两种优化策略,其中RBO(Rule-Based Optimizer)是基于规则优化,CBO(Cost-Based Optimizer)是基于代价优化。常见的规则有:
  • 谓词下推predicate Pushdown:将过滤操作下推到join之前进行,之后在进行join的时候,数据量将会显著的减少,join耗时必然降低。
    暂时无法在飞书文档外展示此内容
select*
from table1
inner jointable2
on table1.id = table2.id
where table1.age > 20and table2.cid = 1

上面的语句会自动优化为如下所示:

select*
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

即在资产许那阶段就提前将数据进行过滤,后续的join和shuffle数据量会大大减少。

  • 列值裁剪column pruning:在谓词下推后,可以把表中没有用到的列裁剪掉,这一优化一方面大幅度减少了网络,内存的数据量消耗,另一方面对于劣势存储数据库来说大大提高了扫描效率。
selecta.name,a.age,b.cid
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

上面的语句会自动优化如下图所示:

selecta.name,a.age,b.cid
from 
(select name,agefromtable1where table1.age > 20
)    a
inner join
(select cidfromtable2where table2.cid = 1
)    b
on a.id = b.id

就是提前将需要的列查询出来,其他不需要的列裁剪掉。

  • 常量累加 constant folding:比如计算 x + (100 + 80) -> x + 180,虽然是一个很小的改动,但是意义巨大。如果没有进行优化,每一条结果都需要执行一次100 + 80的操作,然后再与结果相加,优化后就不需要再次执行100 + 80的操作。
select 1 + 1 id
fromtable1

上面的语句会自动优化如下图所示:

select 2 id
fromtable1

就是会提前将1 + 1计算成2,再赋给id列的每行,不用每次都计算一次1+1
4. SparkPlanner模块:

  1. 将优化后的逻辑执行计划(OptimizedLogicalPlan)转换成Physical Plan(物理计划),也就是Spark可以真正的执行的计划。比如join算子,Spark根据不同常见为该算子制定了不同的算法策略,有BroadCastHashJoin,ShuffleHashJoin以及SortMergeJoin等,物理执行假话实际上就是在这些具体实现中挑选一个耗时最小的算法实现。
  2. 具体的实现手段:
    1. SparkPlanner对优化后的逻辑计划进行换算,是生成了多个可以执行的物理计划Physical Plan;接着CBO(基于代价优化)优化策略或根据Cost Model算出每个Physical Plan的代价,并选取最小代价的Physical Plan作最终的Physical Plan。
    2. CostmModel模块:主要根据过去的性能统计数据,选择最佳的物理执行计划,这个过程的优化就是CBO(基于代价优化)
    备注:以上2、3、4步骤结合起来,就是catalyst优化器。
  3. 执行物理计划:最后一句最优的物理执行计划,生成Java字节码,将SQL转化为DAG,以RDD的形式进行操作
  4. 选择 ( Selection ):根据代价模型选择最优的执行计划。
  5. 代码生成 ( Code Generation ):将优化后的执行计划转换为 Spark 代码。
    三、 Catalyst 的优化规则
    Catalyst 提供了许多优化规则,用于改进查询的执行计划。以下是一些常见的优化规则:
  6. 列剪枝 ( Column Pruning ):删除不必要的列,减少数据传输。
  7. 分区剪枝 ( Partition Pruning ):根据分区过滤条件,只读取必要的分区。
  8. 谓词下推 ( Predicate Pushdown ):将过滤条件尽可能地向下推送到数据源,减少数据的读取量。
  9. 聚合优化 ( Aggregation Optimization ):合并相同的聚合操作,避免重复计算。
  10. 连接优化 ( Join Optimization ):选择合适的连接算法,优化连接操作。
    四、 Catalyst 的代价模型
    Catalyst 采用了基于规则的代价模型来评估执行计划的代价。代价模型考虑了以下因素:
  11. 数据量 ( Data Volume ):表的数据大小和分区数。
  12. 计算资源 ( Compute Resources ):CPU、内存和网络带宽等。
  13. I/O 开销 ( I/O Overhead ):数据读取和写入的开销。
  14. 数据倾斜 ( Data Skew ):数据分布不均衡导致的性能问题。
    五、 Catalyst 的代码生成
    Catalyst 将优化后的执行计划转换为 Spark 代码,包括RDD操作和SQL表达式。代码生成过程使用了模板和宏来实现代码的重用和简洁性。
    六、总结
    Spark SQL 的 Catalyst 优化器是一个强大而灵活的优化框架,它采用了多种优化技术和策略,以生成高效的执行计划。了解 Catalyst 的优化过程和规则,可以帮助我们更好地编写高效的 Spark SQL 查询。

以上是一个关于 Spark SQL 优化器 Catalyst 的学习文档,希望对你有所帮助。如果你有任何问题或建议,请随时与我交流。

这篇关于spark SQL优化器catalyst学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1023028

相关文章

mysqld_multi在Linux服务器上运行多个MySQL实例

《mysqld_multi在Linux服务器上运行多个MySQL实例》在Linux系统上使用mysqld_multi来启动和管理多个MySQL实例是一种常见的做法,这种方式允许你在同一台机器上运行多个... 目录1. 安装mysql2. 配置文件示例配置文件3. 创建数据目录4. 启动和管理实例启动所有实例

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据

MySQL分表自动化创建的实现方案

《MySQL分表自动化创建的实现方案》在数据库应用场景中,随着数据量的不断增长,单表存储数据可能会面临性能瓶颈,例如查询、插入、更新等操作的效率会逐渐降低,分表是一种有效的优化策略,它将数据分散存储在... 目录一、项目目的二、实现过程(一)mysql 事件调度器结合存储过程方式1. 开启事件调度器2. 创

SQL Server使用SELECT INTO实现表备份的代码示例

《SQLServer使用SELECTINTO实现表备份的代码示例》在数据库管理过程中,有时我们需要对表进行备份,以防数据丢失或修改错误,在SQLServer中,可以使用SELECTINT... 在数据库管理过程中,有时我们需要对表进行备份,以防数据丢失或修改错误。在 SQL Server 中,可以使用 SE

mysql外键创建不成功/失效如何处理

《mysql外键创建不成功/失效如何处理》文章介绍了在MySQL5.5.40版本中,创建带有外键约束的`stu`和`grade`表时遇到的问题,发现`grade`表的`id`字段没有随着`studen... 当前mysql版本:SELECT VERSION();结果为:5.5.40。在复习mysql外键约

SQL注入漏洞扫描之sqlmap详解

《SQL注入漏洞扫描之sqlmap详解》SQLMap是一款自动执行SQL注入的审计工具,支持多种SQL注入技术,包括布尔型盲注、时间型盲注、报错型注入、联合查询注入和堆叠查询注入... 目录what支持类型how---less-1为例1.检测网站是否存在sql注入漏洞的注入点2.列举可用数据库3.列举数据库

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

Mysql虚拟列的使用场景

《Mysql虚拟列的使用场景》MySQL虚拟列是一种在查询时动态生成的特殊列,它不占用存储空间,可以提高查询效率和数据处理便利性,本文给大家介绍Mysql虚拟列的相关知识,感兴趣的朋友一起看看吧... 目录1. 介绍mysql虚拟列1.1 定义和作用1.2 虚拟列与普通列的区别2. MySQL虚拟列的类型2

mysql数据库分区的使用

《mysql数据库分区的使用》MySQL分区技术通过将大表分割成多个较小片段,提高查询性能、管理效率和数据存储效率,本文就来介绍一下mysql数据库分区的使用,感兴趣的可以了解一下... 目录【一】分区的基本概念【1】物理存储与逻辑分割【2】查询性能提升【3】数据管理与维护【4】扩展性与并行处理【二】分区的

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,