fetch bulk collect into 批量效率的读取游标数据 【转载】

2023-10-14 23:08

本文主要是介绍fetch bulk collect into 批量效率的读取游标数据 【转载】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

添加自己测试的一个选项,判断collect是否为空,否则打开的时候汇报06502的异常。在9i的版本中说是报0331的错误,地址如下:“BULK COLLECT读取含空日期字段的BUG”,我是在10.2.0.4的版本中测试的,没有出现这种情况。
http://dev.21tx.com/2005/05/20/12202.htmlcreate table T_TEST(  ID    INTEGER,  TNAME VARCHAR2(20));
insert into t_test(id,tname) values(1,'aa');
insert into t_test(id,tname) values(2,'aa');
insert into t_test(id,tname) values(3,'aa');
insert into t_test(id,tname) values(4,'aa');
insert into t_test(id,tname) values(null,'aa1');
insert into t_test(id,tname) values(6,null);
insert into t_test(id,tname) values(null,null);
commit;declare -- Local variables hereTYPE TYPE_ID IS TABLE OF t_test.id%TYPE INDEX BY BINARY_INTEGER;TYPE TYPE_NAME IS TABLE OF t_test.tname%TYPE INDEX BY BINARY_INTEGER;c_id TYPE_ID;c_name TYPE_name;begin-- Test statements hereSELECT * BULK COLLECTinto c_id,c_name from t_test where rownum<1;if c_id.count>=1 thenFOR N IN c_id.FIRST .. c_id.LAST LOOP dbms_output.put_line('id='||c_id(n)||',name='||c_name(n));end loop;end if;
end;-- Created on 2013/8/13 by ZHOUXX 
declare 
-- Local variables here
i integer;
TYPE TYPE_md5msg IS TABLE OF number INDEX BY varchar2(64);
col_md5msg TYPE_md5msg;
begin
-- Test statements here
for cur in (select md5(alertname || ',' || alertkey || ',' || msg) idx,
cnt
from (select alertname,
alertkey,
msg,
trunc(sysdate) dt,
0 cnt
from t_rover_alert
where datetime >= trunc(sysdate - 3)
and alertlevel in (1, 2, 3, 4, 5, 7) and rownum=1
group by alertname, alertkey, msg)) loop
col_md5msg(cur.idx) :=cur.cnt;
end loop;
dbms_output.put_line('111='||col_md5msg.count);
if col_md5msg.exists('00') then              
dbms_output.put_line('222='||col_md5msg('00'));
end if;
col_md5msg('00') :=10;
if col_md5msg.exists('00') then              
dbms_output.put_line('333='||col_md5msg('00'));
end if;
col_md5msg('00') :=col_md5msg('00')+1;
if col_md5msg.exists('00') then              
dbms_output.put_line('333-1='||col_md5msg('00'));
end if;
dbms_output.put_line('444='||col_md5msg.count);
col_md5msg.delete;
dbms_output.put_line('555='||col_md5msg.count);
end;
drop table tttt purge;
create table tttt(idx number,id number(1),id1 number(1,0),id2 number(1,1));
insert into tttt(idx,id,id1,id2) values(1,1,null,null);
insert into tttt(idx,id,id1,id2) values(2,null,1,null);
insert into tttt(idx,id,id1,id2) values(3,null,null,1);
insert into tttt(idx,id,id1,id2) values(4,1.1,null,null);
insert into tttt(idx,id,id1,id2) values(5,null,1.1,null);
insert into tttt(idx,id,id1,id2) values(6,null,null,1.1);
insert into tttt(idx,id,id1,id2) values(7,0.1,null,null);
insert into tttt(idx,id,id1,id2) values(8,null,0.1,null);
insert into tttt(idx,id,id1,id2) values(9,null,null,0.1);
insert into tttt(idx,id,id1,id2) values(10,10,null,null);
insert into tttt(idx,id,id1,id2) values(11,null,10,null);
insert into tttt(idx,id,id1,id2) values(12,null,null,10);
select * from tttt;fetch bulk collect into 批量效率的读取游标数据 【转载】
通常我们获取游标数据是用 fetch some_cursor into var1, var2 的形式,当游标中的记录数不多时不打紧。然而自 Oracle 8i 起,Oracle 为我们提供了 fetch bulk collect 来批量取游标中的数据。它能在读取游标中大量数据的时候提高效率,就像 SNMP 协议中,V2 版比 V1 版新加了 GET-BULK PDU 一样,也是用来更高效的批量取设备上的节点值。fetch bulk collect into 的使用格式是:fetch some_cursor collect into col1, col2 limit xxx。col1、col2 是声明的集合类型变量,xxx 为每次取数据块的大小(记录数),相当于缓冲区的大小,可以不指定 limit xxx 大小。下面以实际的例子来说明它的使用,并与逐条取记录的 fetch into 执行效率上进行比较。测试环境是 Oracle 10g  10.2.1.0,查询的联系人表 sr_contacts 中有记录数 1802983 条,游标中以 rownum 限定返回的记录数。使用 fetch bulk collect into 获取游标数据Java代码declare       --声明需要集合类型及变量,参照字段的 type 来声明类型        type id_type is table of sr_contacts.sr_contact_id%type;      v_id id_type;                type phone_type is table of sr_contacts.contact_phone%type;     v_phone phone_type;                type remark_type is table of sr_contacts.remark%type;        v_remark remark_type;     cursor all_contacts_cur is select sr_contact_id,contact_phone,remark from sr_contacts where rownum <= 100000;         begin       open all_contacts_cur;        loop        fetch all_contacts_cur bulk collect into v_id,v_phone,v_remark limit 256;        for i in 1..v_id.count loop --遍历集合        --用 v_id(i)/v_phone(i)/v_remark(i) 取出字段值来执行你的业务逻辑           end loop;        exit when all_contacts_cur%notfound; --exit 不能紧接 fetch 了,不然会漏记录        end loop;        close all_contacts_cur;        end;      使用 fetch into 逐行获取游标数据declare    --声明变量,参照字段的 type 来声明类型     v_id sr_contacts.sr_contact_id%type;     v_phone sr_contacts.contact_phone%type;     v_remark sr_contacts.remark%type;      cursor all_contacts_cur is select sr_contact_id ,contact_phone,remark from sr_contacts where rownum <= 100000;     begin    open all_contacts_cur;     loop     fetch all_contacts_cur into v_id,v_phone,v_remark;     exit when all_contacts_cur%notfound;         --用 v_id/v_phone/v_remark 取出字段值来执行你的业务逻辑     null; --这里只放置一个空操作,只为测试循环取数的效率     end loop;     close all_contacts_cur;     end;  执行性能比较看看测试的结果,分别执行五次所耗费的秒数:当 rownum <= 100000 时:fetch bulk collect into 耗时:0.125秒, 0.125秒, 0.125秒, 0.125秒, 0.141秒fetch into 耗时:      1.266秒, 1.250秒, 1.250秒, 1.250秒, 1.250秒当 rownum <= 1000000 时:fetch bulk collect into 耗时:1.157秒, 1.157秒, 1.156秒, 1.156秒, 1.171秒fetch into 耗时:      12.128秒, 12.125秒, 12.125秒, 12.109秒, 12.141秒当 rownum <= 10000 时:fetch bulk collect into 耗时:0.031秒, 0.031秒, 0.016秒, 0.015秒, 0.015秒fetch into 耗时:                 0.141秒, 0.140秒, 0.125秒, 0.141秒, 0.125秒当 rownum <= 1000 时:fetch bulk collect into 耗时:0.016秒, 0.015秒, 0.016秒, 0.016秒, 0.015秒fetch into 耗时:      0.016秒, 0.031秒, 0.031秒, 0.032秒, 0.015秒从测试结果来看游标的记录数越大时,用 fetch bulk collect into 的效率很明显示,趋于很小时就差不多了。注意了没有,前面使用 fetch bulk collect into 时前为每一个查询列都定义了一个集合,这样有些繁琐。我们之前也许用过表的 %rowtype 类型,同样的我们也可以定义表的 %rowtype 的集合类型。看下面的例子,同时在这个例子中,我们借助于集合的 first、last 属性来代替使用 count  属性来进行遍历。declare    --声明需要集合类型及变量,参照字段的 type 来声明类型     type contacts_type is table of sr_contacts%rowtype;     v_contacts contacts_type;     cursor all_contacts_cur is --用 rownum 来限定取出的记录数来测试     select * from sr_contacts where rownum <= 10000;     begin    open all_contacts_cur;     loop     fetch all_contacts_cur bulk collect into v_contacts limit 256;     for i in v_contacts.first .. v_contacts.last loop --遍历集合     --用 v_contacts(i).sr_contact_id/v_contacts(i).contact_phone/v_contacts(i).remark     --的形式来取出各字段值来执行你的业务逻辑       end loop;     exit when all_contacts_cur%notfound;     end loop;     close all_contacts_cur;     end;    关于 limit 参数你可以根据你的实际来调整 limit 参数的大小,来达到你最优的性能。limit 参数会影响到 pga 的使用率。而且也可以在 fetch bulk 中省略 limit 参数,写成fetch all_contacts_cur bulk collect into v_contacts;有些资料中是说,如果不写 limit 参数,将会以数据库的 arraysize  参数值作为默认值。在 sqlplus 中用 show arraysize  可以看到该值默认为 15,set arraysize 256 可以更改该值。而实际上我测试不带 limit 参数时,外层循环只执行了一轮,好像不是 limit 15,所以不写 limit 参数时,可以去除外层循环,begin-end 部分可写成:begin    open all_contacts_cur;     fetch all_contacts_cur bulk collect into v_contacts;     for i in v_contacts.first .. v_contacts.last loop --遍历集合     --用 v_contacts(i).sr_contact_id/v_contacts(i).contact_phone/v_contacts(i).remark     --的形式来取出各字段值来执行你的业务逻辑     null; --这里只放置一个空操作,只为测试循环取数的效率     dbms_output.put_line(2000);     end loop;     close all_contacts_cur;     end;   bulk collect 的其他用法(总是针对集合)select into 语句中,如:SELECT sr_contact_id,contact_phone BULK COLLECT INTO v_id,v_phoneFROM sr_contacts WHERE ROWNUM <= 100;
dbms_output.put_line('Count:'||v_id.count||', First:'||v_id(1)||'|'||v_phone(1));returning into 语句中,如:DELETE FROM sr_contacts WHERE sr_contact_id < 30RETURNING sr_contact_id, contact_phone BULK COLLECT INTO v_id, v_phone;
dbms_output.put_line('Count:'||v_id.count||', First:'||v_id(1)||'|'||v_phone(1));forall 的 bulk dml 操作,它大大优于 for 集合后的操作fetch all_contacts_cur bulk collect into v_contacts;
forall i in 1 .. v_contacts.count
--forall i in v_contacts.first .. v_contacts.last  
--forall i in indices of v_contacts --10g以上,可以是非连续的集合  
insert into sr_contacts(sr_contact_id,contact_phone,remark)values(v_contacts(i).sr_contact_id,v_contacts(i).contact_phone,v_contacts(i).remark); --或者是单条的 delete/update 操作


这篇关于fetch bulk collect into 批量效率的读取游标数据 【转载】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/213748

相关文章

C#中读取XML文件的四种常用方法

《C#中读取XML文件的四种常用方法》Xml是Internet环境中跨平台的,依赖于内容的技术,是当前处理结构化文档信息的有力工具,下面我们就来看看C#中读取XML文件的方法都有哪些吧... 目录XML简介格式C#读取XML文件方法使用XmlDocument使用XmlTextReader/XmlTextWr

Redis的数据过期策略和数据淘汰策略

《Redis的数据过期策略和数据淘汰策略》本文主要介绍了Redis的数据过期策略和数据淘汰策略,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录一、数据过期策略1、惰性删除2、定期删除二、数据淘汰策略1、数据淘汰策略概念2、8种数据淘汰策略

轻松上手MYSQL之JSON函数实现高效数据查询与操作

《轻松上手MYSQL之JSON函数实现高效数据查询与操作》:本文主要介绍轻松上手MYSQL之JSON函数实现高效数据查询与操作的相关资料,MySQL提供了多个JSON函数,用于处理和查询JSON数... 目录一、jsON_EXTRACT 提取指定数据二、JSON_UNQUOTE 取消双引号三、JSON_KE

Python给Excel写入数据的四种方法小结

《Python给Excel写入数据的四种方法小结》本文主要介绍了Python给Excel写入数据的四种方法小结,包含openpyxl库、xlsxwriter库、pandas库和win32com库,具有... 目录1. 使用 openpyxl 库2. 使用 xlsxwriter 库3. 使用 pandas 库

SpringBoot定制JSON响应数据的实现

《SpringBoot定制JSON响应数据的实现》本文主要介绍了SpringBoot定制JSON响应数据的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们... 目录前言一、如何使用@jsonView这个注解?二、应用场景三、实战案例注解方式编程方式总结 前言

使用Python实现批量分割PDF文件

《使用Python实现批量分割PDF文件》这篇文章主要为大家详细介绍了如何使用Python进行批量分割PDF文件功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、架构设计二、代码实现三、批量分割PDF文件四、总结本文将介绍如何使用python进js行批量分割PDF文件的方法

使用Python在Excel中创建和取消数据分组

《使用Python在Excel中创建和取消数据分组》Excel中的分组是一种通过添加层级结构将相邻行或列组织在一起的功能,当分组完成后,用户可以通过折叠或展开数据组来简化数据视图,这篇博客将介绍如何使... 目录引言使用工具python在Excel中创建行和列分组Python在Excel中创建嵌套分组Pyt

在Rust中要用Struct和Enum组织数据的原因解析

《在Rust中要用Struct和Enum组织数据的原因解析》在Rust中,Struct和Enum是组织数据的核心工具,Struct用于将相关字段封装为单一实体,便于管理和扩展,Enum用于明确定义所有... 目录为什么在Rust中要用Struct和Enum组织数据?一、使用struct组织数据:将相关字段绑

在Mysql环境下对数据进行增删改查的操作方法

《在Mysql环境下对数据进行增删改查的操作方法》本文介绍了在MySQL环境下对数据进行增删改查的基本操作,包括插入数据、修改数据、删除数据、数据查询(基本查询、连接查询、聚合函数查询、子查询)等,并... 目录一、插入数据:二、修改数据:三、删除数据:1、delete from 表名;2、truncate

Java实现Elasticsearch查询当前索引全部数据的完整代码

《Java实现Elasticsearch查询当前索引全部数据的完整代码》:本文主要介绍如何在Java中实现查询Elasticsearch索引中指定条件下的全部数据,通过设置滚动查询参数(scrol... 目录需求背景通常情况Java 实现查询 Elasticsearch 全部数据写在最后需求背景通常情况下