Oracle的pipelined函数实现高性能大数据处理

2024-06-06 06:58

本文主要是介绍Oracle的pipelined函数实现高性能大数据处理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原文地址:http://mikixiyou.iteye.com/blog/1673672
在plsql开发中,会涉及到一些大数据量表的数据处理,如将某记录数超亿的表的记录经过处理转换插入到另外一张或几张表。
常规的操作方法固然可以实现,但时间、磁盘IO、redo日志等等都非常大。Oracle 提供了一种高级函数,可以将这种数据处理的性能提升到极限。这种函数称为管道函数。
在实际项目中,管道函数会和表函数、数据流函数(即表函数和CURSOR结合)、数据集合、并行度一起使用,达到大数据处理的性能顶峰。
下面是一个例子,将表t_ss_normal的记录插入到表t_target中,插入过程中有部分转换操作。
我分成四个方法来实现这个数据处理操作。

第一个方法,也是最常规的方法,代码如下:

create table T_SS_NORMAL  
(  owner          VARCHAR2(30),  object_name    VARCHAR2(128),  subobject_name VARCHAR2(30),  object_id      NUMBER,  data_object_id NUMBER,  object_type    VARCHAR2(19),  created        DATE,  last_ddl_time  DATE,  timestamp      VARCHAR2(19),  status         VARCHAR2(7),  temporary      VARCHAR2(1),  generated      VARCHAR2(1),  secondary      VARCHAR2(1)  
);  
/  
create table T_TARGET  
(  owner       VARCHAR2(30),  object_name VARCHAR2(128),  comm        VARCHAR2(10)  
);  

这是源表和目标表的表结构。现在源表有200W条,其数据来自dba_objects视图。

create or replace package pkg_test is  procedure load_target_normal;  
end pkg_test;  create or replace package body pkg_test is  procedure load_target_normal is  begin    insert into t_target (owner, object_name, comm)  select owner, object_name, 'xxx' from t_ss_normal;    commit;    end;  
begin  null;  
end pkg_test;

一个insert into select语句搞定这个数据处理,简单。

第二方法,采用管道函数实现这个数据处理。

create type obj_target as object(  
owner VARCHAR2(30), object_name VARCHAR2(128), comm varchar2(10)  
);  
/  
create or replace type typ_array_target as table of obj_target;  
/  create or replace package pkg_test is  function pipe_target(p_source_data in sys_refcursor) return typ_array_target  pipelined;  procedure load_target;  
end pkg_test;  

首先创建两个自定义的类型。obj_target的定义和t_target的表结构一致,用于存储每一条目标表记录。typ_array_target用于管道函数的返回值。
接着定义一个管道函数。
普通函数的结尾加一个pipelined关键字,就是管道函数。这个函数的返回参数类型为集合,这是为了使其能作为表函数使用。表函数就是在from子句中以table(v_resultset)调用的,v_resultset就是一个集合类型的参数。
最后定义一个调用存储过程。

在包体中定义该管道函数和调用存储过程。管道函数pipe_target的传入参数一个sys_refcursor类型。这是一个游标,可以理解为使用select * from table才能得到的结果集。
你也可以不用这个传入的游标,取而代之,在函数中定义一个游标,也一样使用。

function pipe_target(p_source_data in sys_refcursor) return typ_array_target  pipelined is  r_target_data obj_target := obj_target(null, null, null);  r_source_data t_ss%rowtype;  begin  loop  fetch p_source_data  into r_source_data;  exit when p_source_data%notfound;      r_target_data.owner       := r_source_data.owner;  r_target_data.object_name := r_source_data.object_name;  r_target_data.comm        := 'xxx';      pipe row(r_target_data);  end loop;  close p_source_data;  return;  end;  procedure load_target is  begin    insert into t_target  (owner, object_name, comm)  select owner, object_name, comm  from table(pipe_target(cursor(select * from t_ss_normal)));    commit;    end;  

关键字 pipe row 的作用是将obj_target插入到typ_array_target类型的数组中,管道函数自动返回这些数据。

因为源表的数据量会非常大,所以在fetch取值时会使用bulk collect ,实现批量取值。这样做可以减少plsql引擎和sql引擎的控制转换次数。这种转换称为上下文切换。

 function pipe_target_array(p_source_data in sys_refcursor,  p_limit_size  in pls_integer default c_default_limit)  return typ_array_target  pipelined is    r_target_data obj_target := obj_target(null, null, null);   type typ_source_data is table of t_ss%rowtype index by pls_integer;  aa_source_data typ_source_data;  begin  loop  fetch p_source_data bulk collect  into aa_source_data;  exit when aa_source_data.count = 0;  for i in 1 .. aa_source_data.count loop  r_target_data.owner       := aa_source_data(i).owner;  r_target_data.object_name := aa_source_data(i).object_name;  r_target_data.comm        := 'xxx';  pipe row(r_target_data);  end loop;  end loop;  close p_source_data;  return;  end;  procedure load_target_array is  
begin  insert into t_target  (owner, object_name, comm)  select owner, object_name, comm  from table(pipe_target_array(cursor (select * from t_ss_normal),  100));    commit;    
end;  

还可以使用并行度,使得管道函数可以多进程同时执行。并行度还有一个好处,就是将数据插入方式从常规路径转换为直接路径。直接路径可以大量减少redo日志的生成量。

function pipe_target_parallel(p_source_data in sys_refcursor,  p_limit_size  in pls_integer default c_default_limit)  return typ_array_target  pipelined  parallel_enable(partition p_source_data by any) is  r_target_data obj_target := obj_target(null, null, null);  type typ_source_data is table of t_ss%rowtype index by pls_integer;    aa_source_data typ_source_data;  begin    loop  fetch p_source_data bulk collect  into aa_source_data;  exit when aa_source_data.count = 0;      for i in 1 .. aa_source_data.count loop        r_target_data.owner       := aa_source_data(i).owner;  r_target_data.object_name := aa_source_data(i).object_name;  r_target_data.comm        := 'xxx';        pipe row(r_target_data);        end loop;      end loop;    close p_source_data;  return;  end;  procedure load_target_parallel is  
begin  execute immediate 'alter session enable parallel dml';    insert /*+parallel(t,4)*/  into t_target t  (owner, object_name, comm)  select owner, object_name, comm  from table(pipe_target_array(cursor (select /*+parallel(s,4)*/  *  from t_ss_normal s),  100));    commit;  
end;  

在测试过程中,我测试200W记录的操作,时间从24秒降到到8秒,重做日志也降低更多。

这篇关于Oracle的pipelined函数实现高性能大数据处理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1035401

相关文章

Java中使用Java Mail实现邮件服务功能示例

《Java中使用JavaMail实现邮件服务功能示例》:本文主要介绍Java中使用JavaMail实现邮件服务功能的相关资料,文章还提供了一个发送邮件的示例代码,包括创建参数类、邮件类和执行结... 目录前言一、历史背景二编程、pom依赖三、API说明(一)Session (会话)(二)Message编程客

Java中List转Map的几种具体实现方式和特点

《Java中List转Map的几种具体实现方式和特点》:本文主要介绍几种常用的List转Map的方式,包括使用for循环遍历、Java8StreamAPI、ApacheCommonsCollect... 目录前言1、使用for循环遍历:2、Java8 Stream API:3、Apache Commons

C#提取PDF表单数据的实现流程

《C#提取PDF表单数据的实现流程》PDF表单是一种常见的数据收集工具,广泛应用于调查问卷、业务合同等场景,凭借出色的跨平台兼容性和标准化特点,PDF表单在各行各业中得到了广泛应用,本文将探讨如何使用... 目录引言使用工具C# 提取多个PDF表单域的数据C# 提取特定PDF表单域的数据引言PDF表单是一

使用Python实现高效的端口扫描器

《使用Python实现高效的端口扫描器》在网络安全领域,端口扫描是一项基本而重要的技能,通过端口扫描,可以发现目标主机上开放的服务和端口,这对于安全评估、渗透测试等有着不可忽视的作用,本文将介绍如何使... 目录1. 端口扫描的基本原理2. 使用python实现端口扫描2.1 安装必要的库2.2 编写端口扫

PyCharm接入DeepSeek实现AI编程的操作流程

《PyCharm接入DeepSeek实现AI编程的操作流程》DeepSeek是一家专注于人工智能技术研发的公司,致力于开发高性能、低成本的AI模型,接下来,我们把DeepSeek接入到PyCharm中... 目录引言效果演示创建API key在PyCharm中下载Continue插件配置Continue引言

MySQL分表自动化创建的实现方案

《MySQL分表自动化创建的实现方案》在数据库应用场景中,随着数据量的不断增长,单表存储数据可能会面临性能瓶颈,例如查询、插入、更新等操作的效率会逐渐降低,分表是一种有效的优化策略,它将数据分散存储在... 目录一、项目目的二、实现过程(一)mysql 事件调度器结合存储过程方式1. 开启事件调度器2. 创

使用Python实现操作mongodb详解

《使用Python实现操作mongodb详解》这篇文章主要为大家详细介绍了使用Python实现操作mongodb的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、示例二、常用指令三、遇到的问题一、示例from pymongo import MongoClientf

SQL Server使用SELECT INTO实现表备份的代码示例

《SQLServer使用SELECTINTO实现表备份的代码示例》在数据库管理过程中,有时我们需要对表进行备份,以防数据丢失或修改错误,在SQLServer中,可以使用SELECTINT... 在数据库管理过程中,有时我们需要对表进行备份,以防数据丢失或修改错误。在 SQL Server 中,可以使用 SE

基于Go语言实现一个压测工具

《基于Go语言实现一个压测工具》这篇文章主要为大家详细介绍了基于Go语言实现一个简单的压测工具,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录整体架构通用数据处理模块Http请求响应数据处理Curl参数解析处理客户端模块Http客户端处理Grpc客户端处理Websocket客户端

Java CompletableFuture如何实现超时功能

《JavaCompletableFuture如何实现超时功能》:本文主要介绍实现超时功能的基本思路以及CompletableFuture(之后简称CF)是如何通过代码实现超时功能的,需要的... 目录基本思路CompletableFuture 的实现1. 基本实现流程2. 静态条件分析3. 内存泄露 bug