Oracle 原理:数据装载 ,SQLldr ,外部表

2024-02-25 15:08

本文主要是介绍Oracle 原理:数据装载 ,SQLldr ,外部表,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、导入 SQLldr

SQL*LOADER可以把txt文件,Excel文件导入到数据库中。使用SQLloader导入导出需要一个数据文件和一个控制文件。数据文件中存了你需要导入的数据,控制文件中写你需要怎么导入这些数据。

LOAD DATA
infile 'e:\aa.csv'                ## 源文件路径,路径不要包括中文
into table xx_temp  <impcmd>        ## 要导入的表 
(id terminated by whitespace   ## id 为列名,whitespace 表示列之间使用空格来区分,如果是其他的 ‘|’ 方式则使用 terminated by '|' 逗号则用逗号.以此类推
)
##   换行 也是自动终止字段读的标识

其中 impcmd 中 可以被4个值替换分别是insert (缺省默认值),append,replace,truncate

insert: 插入数据,要求表为空

append:追加数据,在原来表的基础上再插入数据

replace :删除原表数据,再插入

truncate:删除原表数据,再插入,比replace 更高效

例如有这么张表

create  table salary_tbl(employer_nm varchar(20) ,department varchar(20) not null,salary number not null,leader_nm varchar(20)
)

新建一个.txt文件用于存数据,可以自定义分隔符来区分字段

新建一个ctl 以字符 ' |' 分割 

或者这样写更简便

load data
infile 'data1.txt'
into table SALARY_TBL append
fields terminated by '|'(employer_nm ,department ,salary	 ,leader_nm  
)

在cmd执行  cd 到对应目录执行 ,执行完后可以查看对应位置log的内容

sqlldr userid=system/voapd@orcl control=control1.ctl log=11.log

在cmd 执行  sqlldr     可以查看sqlldr 的帮助

useridORACLE用户名/口令
control控制文件名
log日志文件名
bad错误文件名
data数据文件名
discard废弃文件名
discardmax允许废弃的文件的数目(全部默认)
skip要跳过的逻辑记录的数目(默认0)
load要加载的逻辑记录的数目(全部默认)
errors允许的错误的数目(默认50)
rows常规路径绑定数组中或直接路径保存数据间的行数(默认:常规路径64,所有直接路径)
bindsize常规路径绑定数组的大小(以字节计)(默认256000)
silent运行过程中隐藏消息(标题,反馈,错误,废弃,分区)
direct使用直接路径(默认FALSE)
parfile参数文件:包含参数说明的文件的名称
parallel执行并行加载(默认FALSE)
file要从以下对象中分配区的文件
skip_unusable_indexes不允许/允许使用无用的索引或索引分区(默认FALSE)
skip_index_maintenance没有维护索引,将受到影响的索引标记为无用(默认FALSE)
commit_discontinued提交加载中断时已加载的行(默认FALSE)
readsize读取缓冲区的大小(默认1048576)
external_table使用外部表进行加载;NOT_USED,GENERATE_ONLY,EXECUTE(默认NOT_USED)
columnarrayrows直接路径列数组的行数(默认5000)
streamsize直接路径流缓冲区的大小(以字节计)(默认256000)
multithreading在直接路径中使用多线程
resumable启用或禁用当前的可恢复会话(默认FALSE)
resumable_name有助于标识可恢复语句的文本字符串
resumable_timeoutRESUMABLE的等待时间(以秒计)(默认7200)
date_cache日期转换高速缓存的大小(以条目计)(默认1000)
no_index_errors出现任何索引错误时中止加载(默认FALSE)
PLEASENOTE命令行参数可以由位置或关键字指定。前者的例子是'sqlldrscott/tigerfoo';后一种情况的一个示例是'sqlldrcontrol=foouserid=scott/tiger'。位置指定参数的时间必须早于但不可迟于由关键字指定的参数。例如,允许'sqlldrscott/tigercontrol=foologfile=log',但是不允许'sqlldrscott/tigercontrol=foolog',即使参数'log'的位置正确。
  

 

------------------------------------------

二、导出spool

在SQLplus 或在SQl命令行 输入

spool c:\test\spool.txtselect st.employer_nm||'|'||st.salary||'|'||st.department from salary_tbl st  where LEADER_NM='雇佣者4';
spool off

就可以导出了

此时ctl 文件该怎么写才能正确导入呢 ?

其中 options skip 是选择跳过的行数  ,  顺便使用支持中文导入的字符编码

options(skip=3)        
load data
CHARACTERSET ZHS16GBK 
infile 'spool.txt'
into table SALARY_TBL truncate
fields terminated by '|'(employer_nm ,salary	 ,department 
)

 

二、外部表

  外部表的数据不装入数据库中,数据库中只存储外部表的定义。实际数据位于操作系统中的平面文件中。外部表只读,可以通过select 进行查询。外部表可以由数据泵引擎生成的外部表。也可以通过文本文件生成的外部表

create  table salary_tbl_external(employer_nm ,department ,salary ,leader_nm  
)organization external   -----指明外部表
(type oracle_datapump    --利用数据泵来创建default directory MY_DIR    --D:\DIRTEST1location ('sal1.dmp','sal2.dmp')
) parallelas select salary_tbl.employer_nm,salary_tbl.department,salary_tbl.salary,salary_tbl.leader_nm from salary_tbl

在MY_DIR 文件中有 SAL1.dmp 和SAL2.dmp文件。现在有了dmp文件可以通过外部表来创建外部表

create  table salary_tbl_external2(employer_nm varchar2(20) ,department  varchar2(20),salary number,leader_nm  varchar2(20)
) organization external(type oracle_datapumpdefault directory MY_DIR    --D:\DIRTEST1location ('sal1.dmp','sal2.dmp')
)

利用文本文件来创建外部表  现有txt文件

create directory C_test as 'C:\test';
--使用oracle_loader创建外部表,数据文件中每一行为数据行,字段按照 ‘|'划分
create  table salary_tbl_external3(employer_nm varchar2(20) ,department  varchar2(20),salary number,leader_nm  varchar2(20)
) organization external(type oracle_loaderdefault directory C_test    access parameters(records delimited by newline  fields terminated  by '|'     )location ('data1.txt')
)select * from salary_tbl_external3

就可以查询了。

 注意: 如果在access parameters 中  注释一些没有用的代码,系统认为这是不符合规则的语句,会产生错误ORA-29913

 

这篇关于Oracle 原理:数据装载 ,SQLldr ,外部表的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/745848

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

hdu4407(容斥原理)

题意:给一串数字1,2,......n,两个操作:1、修改第k个数字,2、查询区间[l,r]中与n互质的数之和。 解题思路:咱一看,像线段树,但是如果用线段树做,那么每个区间一定要记录所有的素因子,这样会超内存。然后我就做不来了。后来看了题解,原来是用容斥原理来做的。还记得这道题目吗?求区间[1,r]中与p互质的数的个数,如果不会的话就先去做那题吧。现在这题是求区间[l,r]中与n互质的数的和

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X