fetch bulk collect into 批量效率的读取游标数据 【转载】

2023-10-14 23:08

本文主要是介绍fetch bulk collect into 批量效率的读取游标数据 【转载】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

添加自己测试的一个选项,判断collect是否为空,否则打开的时候汇报06502的异常。在9i的版本中说是报0331的错误,地址如下:“BULK COLLECT读取含空日期字段的BUG”,我是在10.2.0.4的版本中测试的,没有出现这种情况。
http://dev.21tx.com/2005/05/20/12202.htmlcreate table T_TEST(  ID    INTEGER,  TNAME VARCHAR2(20));
insert into t_test(id,tname) values(1,'aa');
insert into t_test(id,tname) values(2,'aa');
insert into t_test(id,tname) values(3,'aa');
insert into t_test(id,tname) values(4,'aa');
insert into t_test(id,tname) values(null,'aa1');
insert into t_test(id,tname) values(6,null);
insert into t_test(id,tname) values(null,null);
commit;declare -- Local variables hereTYPE TYPE_ID IS TABLE OF t_test.id%TYPE INDEX BY BINARY_INTEGER;TYPE TYPE_NAME IS TABLE OF t_test.tname%TYPE INDEX BY BINARY_INTEGER;c_id TYPE_ID;c_name TYPE_name;begin-- Test statements hereSELECT * BULK COLLECTinto c_id,c_name from t_test where rownum<1;if c_id.count>=1 thenFOR N IN c_id.FIRST .. c_id.LAST LOOP dbms_output.put_line('id='||c_id(n)||',name='||c_name(n));end loop;end if;
end;-- Created on 2013/8/13 by ZHOUXX 
declare 
-- Local variables here
i integer;
TYPE TYPE_md5msg IS TABLE OF number INDEX BY varchar2(64);
col_md5msg TYPE_md5msg;
begin
-- Test statements here
for cur in (select md5(alertname || ',' || alertkey || ',' || msg) idx,
cnt
from (select alertname,
alertkey,
msg,
trunc(sysdate) dt,
0 cnt
from t_rover_alert
where datetime >= trunc(sysdate - 3)
and alertlevel in (1, 2, 3, 4, 5, 7) and rownum=1
group by alertname, alertkey, msg)) loop
col_md5msg(cur.idx) :=cur.cnt;
end loop;
dbms_output.put_line('111='||col_md5msg.count);
if col_md5msg.exists('00') then              
dbms_output.put_line('222='||col_md5msg('00'));
end if;
col_md5msg('00') :=10;
if col_md5msg.exists('00') then              
dbms_output.put_line('333='||col_md5msg('00'));
end if;
col_md5msg('00') :=col_md5msg('00')+1;
if col_md5msg.exists('00') then              
dbms_output.put_line('333-1='||col_md5msg('00'));
end if;
dbms_output.put_line('444='||col_md5msg.count);
col_md5msg.delete;
dbms_output.put_line('555='||col_md5msg.count);
end;
drop table tttt purge;
create table tttt(idx number,id number(1),id1 number(1,0),id2 number(1,1));
insert into tttt(idx,id,id1,id2) values(1,1,null,null);
insert into tttt(idx,id,id1,id2) values(2,null,1,null);
insert into tttt(idx,id,id1,id2) values(3,null,null,1);
insert into tttt(idx,id,id1,id2) values(4,1.1,null,null);
insert into tttt(idx,id,id1,id2) values(5,null,1.1,null);
insert into tttt(idx,id,id1,id2) values(6,null,null,1.1);
insert into tttt(idx,id,id1,id2) values(7,0.1,null,null);
insert into tttt(idx,id,id1,id2) values(8,null,0.1,null);
insert into tttt(idx,id,id1,id2) values(9,null,null,0.1);
insert into tttt(idx,id,id1,id2) values(10,10,null,null);
insert into tttt(idx,id,id1,id2) values(11,null,10,null);
insert into tttt(idx,id,id1,id2) values(12,null,null,10);
select * from tttt;fetch bulk collect into 批量效率的读取游标数据 【转载】
通常我们获取游标数据是用 fetch some_cursor into var1, var2 的形式,当游标中的记录数不多时不打紧。然而自 Oracle 8i 起,Oracle 为我们提供了 fetch bulk collect 来批量取游标中的数据。它能在读取游标中大量数据的时候提高效率,就像 SNMP 协议中,V2 版比 V1 版新加了 GET-BULK PDU 一样,也是用来更高效的批量取设备上的节点值。fetch bulk collect into 的使用格式是:fetch some_cursor collect into col1, col2 limit xxx。col1、col2 是声明的集合类型变量,xxx 为每次取数据块的大小(记录数),相当于缓冲区的大小,可以不指定 limit xxx 大小。下面以实际的例子来说明它的使用,并与逐条取记录的 fetch into 执行效率上进行比较。测试环境是 Oracle 10g  10.2.1.0,查询的联系人表 sr_contacts 中有记录数 1802983 条,游标中以 rownum 限定返回的记录数。使用 fetch bulk collect into 获取游标数据Java代码declare       --声明需要集合类型及变量,参照字段的 type 来声明类型        type id_type is table of sr_contacts.sr_contact_id%type;      v_id id_type;                type phone_type is table of sr_contacts.contact_phone%type;     v_phone phone_type;                type remark_type is table of sr_contacts.remark%type;        v_remark remark_type;     cursor all_contacts_cur is select sr_contact_id,contact_phone,remark from sr_contacts where rownum <= 100000;         begin       open all_contacts_cur;        loop        fetch all_contacts_cur bulk collect into v_id,v_phone,v_remark limit 256;        for i in 1..v_id.count loop --遍历集合        --用 v_id(i)/v_phone(i)/v_remark(i) 取出字段值来执行你的业务逻辑           end loop;        exit when all_contacts_cur%notfound; --exit 不能紧接 fetch 了,不然会漏记录        end loop;        close all_contacts_cur;        end;      使用 fetch into 逐行获取游标数据declare    --声明变量,参照字段的 type 来声明类型     v_id sr_contacts.sr_contact_id%type;     v_phone sr_contacts.contact_phone%type;     v_remark sr_contacts.remark%type;      cursor all_contacts_cur is select sr_contact_id ,contact_phone,remark from sr_contacts where rownum <= 100000;     begin    open all_contacts_cur;     loop     fetch all_contacts_cur into v_id,v_phone,v_remark;     exit when all_contacts_cur%notfound;         --用 v_id/v_phone/v_remark 取出字段值来执行你的业务逻辑     null; --这里只放置一个空操作,只为测试循环取数的效率     end loop;     close all_contacts_cur;     end;  执行性能比较看看测试的结果,分别执行五次所耗费的秒数:当 rownum <= 100000 时:fetch bulk collect into 耗时:0.125秒, 0.125秒, 0.125秒, 0.125秒, 0.141秒fetch into 耗时:      1.266秒, 1.250秒, 1.250秒, 1.250秒, 1.250秒当 rownum <= 1000000 时:fetch bulk collect into 耗时:1.157秒, 1.157秒, 1.156秒, 1.156秒, 1.171秒fetch into 耗时:      12.128秒, 12.125秒, 12.125秒, 12.109秒, 12.141秒当 rownum <= 10000 时:fetch bulk collect into 耗时:0.031秒, 0.031秒, 0.016秒, 0.015秒, 0.015秒fetch into 耗时:                 0.141秒, 0.140秒, 0.125秒, 0.141秒, 0.125秒当 rownum <= 1000 时:fetch bulk collect into 耗时:0.016秒, 0.015秒, 0.016秒, 0.016秒, 0.015秒fetch into 耗时:      0.016秒, 0.031秒, 0.031秒, 0.032秒, 0.015秒从测试结果来看游标的记录数越大时,用 fetch bulk collect into 的效率很明显示,趋于很小时就差不多了。注意了没有,前面使用 fetch bulk collect into 时前为每一个查询列都定义了一个集合,这样有些繁琐。我们之前也许用过表的 %rowtype 类型,同样的我们也可以定义表的 %rowtype 的集合类型。看下面的例子,同时在这个例子中,我们借助于集合的 first、last 属性来代替使用 count  属性来进行遍历。declare    --声明需要集合类型及变量,参照字段的 type 来声明类型     type contacts_type is table of sr_contacts%rowtype;     v_contacts contacts_type;     cursor all_contacts_cur is --用 rownum 来限定取出的记录数来测试     select * from sr_contacts where rownum <= 10000;     begin    open all_contacts_cur;     loop     fetch all_contacts_cur bulk collect into v_contacts limit 256;     for i in v_contacts.first .. v_contacts.last loop --遍历集合     --用 v_contacts(i).sr_contact_id/v_contacts(i).contact_phone/v_contacts(i).remark     --的形式来取出各字段值来执行你的业务逻辑       end loop;     exit when all_contacts_cur%notfound;     end loop;     close all_contacts_cur;     end;    关于 limit 参数你可以根据你的实际来调整 limit 参数的大小,来达到你最优的性能。limit 参数会影响到 pga 的使用率。而且也可以在 fetch bulk 中省略 limit 参数,写成fetch all_contacts_cur bulk collect into v_contacts;有些资料中是说,如果不写 limit 参数,将会以数据库的 arraysize  参数值作为默认值。在 sqlplus 中用 show arraysize  可以看到该值默认为 15,set arraysize 256 可以更改该值。而实际上我测试不带 limit 参数时,外层循环只执行了一轮,好像不是 limit 15,所以不写 limit 参数时,可以去除外层循环,begin-end 部分可写成:begin    open all_contacts_cur;     fetch all_contacts_cur bulk collect into v_contacts;     for i in v_contacts.first .. v_contacts.last loop --遍历集合     --用 v_contacts(i).sr_contact_id/v_contacts(i).contact_phone/v_contacts(i).remark     --的形式来取出各字段值来执行你的业务逻辑     null; --这里只放置一个空操作,只为测试循环取数的效率     dbms_output.put_line(2000);     end loop;     close all_contacts_cur;     end;   bulk collect 的其他用法(总是针对集合)select into 语句中,如:SELECT sr_contact_id,contact_phone BULK COLLECT INTO v_id,v_phoneFROM sr_contacts WHERE ROWNUM <= 100;
dbms_output.put_line('Count:'||v_id.count||', First:'||v_id(1)||'|'||v_phone(1));returning into 语句中,如:DELETE FROM sr_contacts WHERE sr_contact_id < 30RETURNING sr_contact_id, contact_phone BULK COLLECT INTO v_id, v_phone;
dbms_output.put_line('Count:'||v_id.count||', First:'||v_id(1)||'|'||v_phone(1));forall 的 bulk dml 操作,它大大优于 for 集合后的操作fetch all_contacts_cur bulk collect into v_contacts;
forall i in 1 .. v_contacts.count
--forall i in v_contacts.first .. v_contacts.last  
--forall i in indices of v_contacts --10g以上,可以是非连续的集合  
insert into sr_contacts(sr_contact_id,contact_phone,remark)values(v_contacts(i).sr_contact_id,v_contacts(i).contact_phone,v_contacts(i).remark); --或者是单条的 delete/update 操作


这篇关于fetch bulk collect into 批量效率的读取游标数据 【转载】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/213748

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者