fetch bulk collect into 批量效率的读取游标数据 【转载】

2023-10-14 23:08

本文主要是介绍fetch bulk collect into 批量效率的读取游标数据 【转载】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

添加自己测试的一个选项,判断collect是否为空,否则打开的时候汇报06502的异常。在9i的版本中说是报0331的错误,地址如下:“BULK COLLECT读取含空日期字段的BUG”,我是在10.2.0.4的版本中测试的,没有出现这种情况。
http://dev.21tx.com/2005/05/20/12202.htmlcreate table T_TEST(  ID    INTEGER,  TNAME VARCHAR2(20));
insert into t_test(id,tname) values(1,'aa');
insert into t_test(id,tname) values(2,'aa');
insert into t_test(id,tname) values(3,'aa');
insert into t_test(id,tname) values(4,'aa');
insert into t_test(id,tname) values(null,'aa1');
insert into t_test(id,tname) values(6,null);
insert into t_test(id,tname) values(null,null);
commit;declare -- Local variables hereTYPE TYPE_ID IS TABLE OF t_test.id%TYPE INDEX BY BINARY_INTEGER;TYPE TYPE_NAME IS TABLE OF t_test.tname%TYPE INDEX BY BINARY_INTEGER;c_id TYPE_ID;c_name TYPE_name;begin-- Test statements hereSELECT * BULK COLLECTinto c_id,c_name from t_test where rownum<1;if c_id.count>=1 thenFOR N IN c_id.FIRST .. c_id.LAST LOOP dbms_output.put_line('id='||c_id(n)||',name='||c_name(n));end loop;end if;
end;-- Created on 2013/8/13 by ZHOUXX 
declare 
-- Local variables here
i integer;
TYPE TYPE_md5msg IS TABLE OF number INDEX BY varchar2(64);
col_md5msg TYPE_md5msg;
begin
-- Test statements here
for cur in (select md5(alertname || ',' || alertkey || ',' || msg) idx,
cnt
from (select alertname,
alertkey,
msg,
trunc(sysdate) dt,
0 cnt
from t_rover_alert
where datetime >= trunc(sysdate - 3)
and alertlevel in (1, 2, 3, 4, 5, 7) and rownum=1
group by alertname, alertkey, msg)) loop
col_md5msg(cur.idx) :=cur.cnt;
end loop;
dbms_output.put_line('111='||col_md5msg.count);
if col_md5msg.exists('00') then              
dbms_output.put_line('222='||col_md5msg('00'));
end if;
col_md5msg('00') :=10;
if col_md5msg.exists('00') then              
dbms_output.put_line('333='||col_md5msg('00'));
end if;
col_md5msg('00') :=col_md5msg('00')+1;
if col_md5msg.exists('00') then              
dbms_output.put_line('333-1='||col_md5msg('00'));
end if;
dbms_output.put_line('444='||col_md5msg.count);
col_md5msg.delete;
dbms_output.put_line('555='||col_md5msg.count);
end;
drop table tttt purge;
create table tttt(idx number,id number(1),id1 number(1,0),id2 number(1,1));
insert into tttt(idx,id,id1,id2) values(1,1,null,null);
insert into tttt(idx,id,id1,id2) values(2,null,1,null);
insert into tttt(idx,id,id1,id2) values(3,null,null,1);
insert into tttt(idx,id,id1,id2) values(4,1.1,null,null);
insert into tttt(idx,id,id1,id2) values(5,null,1.1,null);
insert into tttt(idx,id,id1,id2) values(6,null,null,1.1);
insert into tttt(idx,id,id1,id2) values(7,0.1,null,null);
insert into tttt(idx,id,id1,id2) values(8,null,0.1,null);
insert into tttt(idx,id,id1,id2) values(9,null,null,0.1);
insert into tttt(idx,id,id1,id2) values(10,10,null,null);
insert into tttt(idx,id,id1,id2) values(11,null,10,null);
insert into tttt(idx,id,id1,id2) values(12,null,null,10);
select * from tttt;fetch bulk collect into 批量效率的读取游标数据 【转载】
通常我们获取游标数据是用 fetch some_cursor into var1, var2 的形式,当游标中的记录数不多时不打紧。然而自 Oracle 8i 起,Oracle 为我们提供了 fetch bulk collect 来批量取游标中的数据。它能在读取游标中大量数据的时候提高效率,就像 SNMP 协议中,V2 版比 V1 版新加了 GET-BULK PDU 一样,也是用来更高效的批量取设备上的节点值。fetch bulk collect into 的使用格式是:fetch some_cursor collect into col1, col2 limit xxx。col1、col2 是声明的集合类型变量,xxx 为每次取数据块的大小(记录数),相当于缓冲区的大小,可以不指定 limit xxx 大小。下面以实际的例子来说明它的使用,并与逐条取记录的 fetch into 执行效率上进行比较。测试环境是 Oracle 10g  10.2.1.0,查询的联系人表 sr_contacts 中有记录数 1802983 条,游标中以 rownum 限定返回的记录数。使用 fetch bulk collect into 获取游标数据Java代码declare       --声明需要集合类型及变量,参照字段的 type 来声明类型        type id_type is table of sr_contacts.sr_contact_id%type;      v_id id_type;                type phone_type is table of sr_contacts.contact_phone%type;     v_phone phone_type;                type remark_type is table of sr_contacts.remark%type;        v_remark remark_type;     cursor all_contacts_cur is select sr_contact_id,contact_phone,remark from sr_contacts where rownum <= 100000;         begin       open all_contacts_cur;        loop        fetch all_contacts_cur bulk collect into v_id,v_phone,v_remark limit 256;        for i in 1..v_id.count loop --遍历集合        --用 v_id(i)/v_phone(i)/v_remark(i) 取出字段值来执行你的业务逻辑           end loop;        exit when all_contacts_cur%notfound; --exit 不能紧接 fetch 了,不然会漏记录        end loop;        close all_contacts_cur;        end;      使用 fetch into 逐行获取游标数据declare    --声明变量,参照字段的 type 来声明类型     v_id sr_contacts.sr_contact_id%type;     v_phone sr_contacts.contact_phone%type;     v_remark sr_contacts.remark%type;      cursor all_contacts_cur is select sr_contact_id ,contact_phone,remark from sr_contacts where rownum <= 100000;     begin    open all_contacts_cur;     loop     fetch all_contacts_cur into v_id,v_phone,v_remark;     exit when all_contacts_cur%notfound;         --用 v_id/v_phone/v_remark 取出字段值来执行你的业务逻辑     null; --这里只放置一个空操作,只为测试循环取数的效率     end loop;     close all_contacts_cur;     end;  执行性能比较看看测试的结果,分别执行五次所耗费的秒数:当 rownum <= 100000 时:fetch bulk collect into 耗时:0.125秒, 0.125秒, 0.125秒, 0.125秒, 0.141秒fetch into 耗时:      1.266秒, 1.250秒, 1.250秒, 1.250秒, 1.250秒当 rownum <= 1000000 时:fetch bulk collect into 耗时:1.157秒, 1.157秒, 1.156秒, 1.156秒, 1.171秒fetch into 耗时:      12.128秒, 12.125秒, 12.125秒, 12.109秒, 12.141秒当 rownum <= 10000 时:fetch bulk collect into 耗时:0.031秒, 0.031秒, 0.016秒, 0.015秒, 0.015秒fetch into 耗时:                 0.141秒, 0.140秒, 0.125秒, 0.141秒, 0.125秒当 rownum <= 1000 时:fetch bulk collect into 耗时:0.016秒, 0.015秒, 0.016秒, 0.016秒, 0.015秒fetch into 耗时:      0.016秒, 0.031秒, 0.031秒, 0.032秒, 0.015秒从测试结果来看游标的记录数越大时,用 fetch bulk collect into 的效率很明显示,趋于很小时就差不多了。注意了没有,前面使用 fetch bulk collect into 时前为每一个查询列都定义了一个集合,这样有些繁琐。我们之前也许用过表的 %rowtype 类型,同样的我们也可以定义表的 %rowtype 的集合类型。看下面的例子,同时在这个例子中,我们借助于集合的 first、last 属性来代替使用 count  属性来进行遍历。declare    --声明需要集合类型及变量,参照字段的 type 来声明类型     type contacts_type is table of sr_contacts%rowtype;     v_contacts contacts_type;     cursor all_contacts_cur is --用 rownum 来限定取出的记录数来测试     select * from sr_contacts where rownum <= 10000;     begin    open all_contacts_cur;     loop     fetch all_contacts_cur bulk collect into v_contacts limit 256;     for i in v_contacts.first .. v_contacts.last loop --遍历集合     --用 v_contacts(i).sr_contact_id/v_contacts(i).contact_phone/v_contacts(i).remark     --的形式来取出各字段值来执行你的业务逻辑       end loop;     exit when all_contacts_cur%notfound;     end loop;     close all_contacts_cur;     end;    关于 limit 参数你可以根据你的实际来调整 limit 参数的大小,来达到你最优的性能。limit 参数会影响到 pga 的使用率。而且也可以在 fetch bulk 中省略 limit 参数,写成fetch all_contacts_cur bulk collect into v_contacts;有些资料中是说,如果不写 limit 参数,将会以数据库的 arraysize  参数值作为默认值。在 sqlplus 中用 show arraysize  可以看到该值默认为 15,set arraysize 256 可以更改该值。而实际上我测试不带 limit 参数时,外层循环只执行了一轮,好像不是 limit 15,所以不写 limit 参数时,可以去除外层循环,begin-end 部分可写成:begin    open all_contacts_cur;     fetch all_contacts_cur bulk collect into v_contacts;     for i in v_contacts.first .. v_contacts.last loop --遍历集合     --用 v_contacts(i).sr_contact_id/v_contacts(i).contact_phone/v_contacts(i).remark     --的形式来取出各字段值来执行你的业务逻辑     null; --这里只放置一个空操作,只为测试循环取数的效率     dbms_output.put_line(2000);     end loop;     close all_contacts_cur;     end;   bulk collect 的其他用法(总是针对集合)select into 语句中,如:SELECT sr_contact_id,contact_phone BULK COLLECT INTO v_id,v_phoneFROM sr_contacts WHERE ROWNUM <= 100;
dbms_output.put_line('Count:'||v_id.count||', First:'||v_id(1)||'|'||v_phone(1));returning into 语句中,如:DELETE FROM sr_contacts WHERE sr_contact_id < 30RETURNING sr_contact_id, contact_phone BULK COLLECT INTO v_id, v_phone;
dbms_output.put_line('Count:'||v_id.count||', First:'||v_id(1)||'|'||v_phone(1));forall 的 bulk dml 操作,它大大优于 for 集合后的操作fetch all_contacts_cur bulk collect into v_contacts;
forall i in 1 .. v_contacts.count
--forall i in v_contacts.first .. v_contacts.last  
--forall i in indices of v_contacts --10g以上,可以是非连续的集合  
insert into sr_contacts(sr_contact_id,contact_phone,remark)values(v_contacts(i).sr_contact_id,v_contacts(i).contact_phone,v_contacts(i).remark); --或者是单条的 delete/update 操作


这篇关于fetch bulk collect into 批量效率的读取游标数据 【转载】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/213748

相关文章

使用Python将JSON,XML和YAML数据写入Excel文件

《使用Python将JSON,XML和YAML数据写入Excel文件》JSON、XML和YAML作为主流结构化数据格式,因其层次化表达能力和跨平台兼容性,已成为系统间数据交换的通用载体,本文将介绍如何... 目录如何使用python写入数据到Excel工作表用Python导入jsON数据到Excel工作表用

Mysql如何将数据按照年月分组的统计

《Mysql如何将数据按照年月分组的统计》:本文主要介绍Mysql如何将数据按照年月分组的统计方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录mysql将数据按照年月分组的统计要的效果方案总结Mysql将数据按照年月分组的统计要的效果方案① 使用 DA

鸿蒙中Axios数据请求的封装和配置方法

《鸿蒙中Axios数据请求的封装和配置方法》:本文主要介绍鸿蒙中Axios数据请求的封装和配置方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录1.配置权限 应用级权限和系统级权限2.配置网络请求的代码3.下载在Entry中 下载AxIOS4.封装Htt

Python实现AVIF图片与其他图片格式间的批量转换

《Python实现AVIF图片与其他图片格式间的批量转换》这篇文章主要为大家详细介绍了如何使用Pillow库实现AVIF与其他格式的相互转换,即将AVIF转换为常见的格式,比如JPG或PNG,需要的小... 目录环境配置1.将单个 AVIF 图片转换为 JPG 和 PNG2.批量转换目录下所有 AVIF 图

详解如何通过Python批量转换图片为PDF

《详解如何通过Python批量转换图片为PDF》:本文主要介绍如何基于Python+Tkinter开发的图片批量转PDF工具,可以支持批量添加图片,拖拽等操作,感兴趣的小伙伴可以参考一下... 目录1. 概述2. 功能亮点2.1 主要功能2.2 界面设计3. 使用指南3.1 运行环境3.2 使用步骤4. 核

一文详解JavaScript中的fetch方法

《一文详解JavaScript中的fetch方法》fetch函数是一个用于在JavaScript中执行HTTP请求的现代API,它提供了一种更简洁、更强大的方式来处理网络请求,:本文主要介绍Jav... 目录前言什么是 fetch 方法基本语法简单的 GET 请求示例代码解释发送 POST 请求示例代码解释

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Java利用JSONPath操作JSON数据的技术指南

《Java利用JSONPath操作JSON数据的技术指南》JSONPath是一种强大的工具,用于查询和操作JSON数据,类似于SQL的语法,它为处理复杂的JSON数据结构提供了简单且高效... 目录1、简述2、什么是 jsONPath?3、Java 示例3.1 基本查询3.2 过滤查询3.3 递归搜索3.4

MySQL大表数据的分区与分库分表的实现

《MySQL大表数据的分区与分库分表的实现》数据库的分区和分库分表是两种常用的技术方案,本文主要介绍了MySQL大表数据的分区与分库分表的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有... 目录1. mysql大表数据的分区1.1 什么是分区?1.2 分区的类型1.3 分区的优点1.4 分

Mysql删除几亿条数据表中的部分数据的方法实现

《Mysql删除几亿条数据表中的部分数据的方法实现》在MySQL中删除一个大表中的数据时,需要特别注意操作的性能和对系统的影响,本文主要介绍了Mysql删除几亿条数据表中的部分数据的方法实现,具有一定... 目录1、需求2、方案1. 使用 DELETE 语句分批删除2. 使用 INPLACE ALTER T