《SQL必知必会——第17、18、19课:创建和操纵表、使用视图、使用存储过程》

2024-08-28 13:58

本文主要是介绍《SQL必知必会——第17、18、19课:创建和操纵表、使用视图、使用存储过程》,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

       第17课  创建和操纵表

       前面讲了那么多sql增删改查操作,一切操作都是建立在表的基础上,也就是先有一张可操作的表,建表语句也比较简单,使用create table关键字即可,如下所示:

CREATE TABLE `shopping_mall_user_address` (`id` bigint(20) unsigned NOT NULL AUTO_INCREMENT COMMENT '主键',`uid` bigint(20) NOT NULL COMMENT '用户id',`contact_name` varchar(10) NULL COMMENT '收货人姓名',`phone_number` varchar(11) NULL COMMENT '电话号码',`address` varchar(100) NULL COMMENT '收货地址',`dr` tinyint(1) NOT NULL DEFAULT '0' COMMENT '逻辑删除: 0 正常, 1 已删除',`created_time` timestamp(3) NOT NULL DEFAULT CURRENT_TIMESTAMP(3) COMMENT '创建时间',`updated_time` timestamp(3) NOT NULL DEFAULT CURRENT_TIMESTAMP(3) ON UPDATE CURRENT_TIMESTAMP(3) COMMENT '更新时间',PRIMARY KEY (`id`),KEY `idx_uid` (`uid`)
) ENGINE=InnoDB CHARSET=utf8 COLLATE utf8_unicode_ci COMMENT '商城用户收货地址表';

       这也是我工作中常用的mysql建表语句,看着是不是很简单。实际所需要注意的点还是挺多的:

       1.表名和列名的命名,都用名词,统一使用下划线连接,而非驼峰命名。表明前缀可以使用项目名简写或业务线简写,我曾经见过很多表名前缀是tbl,顾名思义tbl就是table,这样的前缀毫无意义。

       2.唯一索引命名使用uk前缀,普通索引命名使用idx前缀。

       3.时间类型使用timestamp,非date,更不是int或long,数据创建、更新时,时间自动更改,无须手动通过程序操作。

       4.列的类型够用就好,也越小越好,比如状态列使用tinyint。

       5.表与所有的列均有中文注释,尽量详细而无歧义。这一点一定注意,看到不写注释的表和列,可以说是非常想打人,工作中每每遇到这样的表,内心真是一万头草泥马飞奔。

       6.字符集采用utf8,存储引擎使用InnoDB。不使用外键,存储过程,触发器。

       上面这些注意点并非出自《sql必知必会》这本书,当然也不是我独创,都是工作中的一些摘录和积累总结的,有不准确之处还请大家指正。

       在写代码时,变量需要初始化赋一个值,同理建表时,也可以给某些字段定义默认值,比如上面dr默认值就是0。也可以定义某些字段是否为null,也就是插入或更新数据时,该列是否要显式的赋值。这里的null不要和空字符串想混淆,null值是没有值,空字符串是有明确值的。

       操纵表

       随着业务扩展,当初定义的表字段可能不够用了,比如用户信息表,说不定哪天,突然让你加一个使用第三方登录产生的id,比如微信的openId,需要给某个表添加字段,使用下面语句:

alter table shopping_mall_user_address add column type_id varchar(3) comment '地址类型’;

       由于是修改整个表而非数据行,需要谨慎,避免发生锁表。删除表很简单,比如删除cust_test表:

drop table cust_test;

       第18、19课:使用视图、使用存储过程

       这两课可讲的很少,主要是视图和存储过程工作中用的不多,还没有什么心得。《SQL必知必会》这本书讲的也不多,视图是虚拟的表,与包含数据的表不一样,视图只包含使用时动态检索数据的查询。可以把视图看做是在表和查询结果之间的一个封装,它可以简化复杂sql语句的使用,用起来还是有很多优点的,但是工作中用的少,不是因为视图不够强大,而是因为很多时候普通的sql操作已经很好解决问题,就没必要引进更复杂的技术折腾。存储过程亦是如此,存储过程就是为了以后使用而保存的一条或多条sql语句。说起来更像是一个脚本一样或者说是面向对象创建类。印象里前前东家使用存储过程的,那时我还在搞mfc,经常听web程序员念叨存储过程,那时觉得懂存储过程好牛b的样子,还是那句话,普通sql可以解决的问题,就没必要引入存储过程搞得那么复杂,不过dba或运维同学应该掌握并精通这项技能。说到底,视图和存储过程虽然强大,但编写、调试、维护都很复杂,用的也就少了。当然主要还是我见识比较少,囧。

 

这篇关于《SQL必知必会——第17、18、19课:创建和操纵表、使用视图、使用存储过程》的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1114961

相关文章

浅析Spring Security认证过程

类图 为了方便理解Spring Security认证流程,特意画了如下的类图,包含相关的核心认证类 概述 核心验证器 AuthenticationManager 该对象提供了认证方法的入口,接收一个Authentiaton对象作为参数; public interface AuthenticationManager {Authentication authenticate(Authenti

SQL中的外键约束

外键约束用于表示两张表中的指标连接关系。外键约束的作用主要有以下三点: 1.确保子表中的某个字段(外键)只能引用父表中的有效记录2.主表中的列被删除时,子表中的关联列也会被删除3.主表中的列更新时,子表中的关联元素也会被更新 子表中的元素指向主表 以下是一个外键约束的实例展示

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

如何去写一手好SQL

MySQL性能 最大数据量 抛开数据量和并发数,谈性能都是耍流氓。MySQL没有限制单表最大记录数,它取决于操作系统对文件大小的限制。 《阿里巴巴Java开发手册》提出单表行数超过500万行或者单表容量超过2GB,才推荐分库分表。性能由综合因素决定,抛开业务复杂度,影响程度依次是硬件配置、MySQL配置、数据表设计、索引优化。500万这个值仅供参考,并非铁律。 博主曾经操作过超过4亿行数据

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

作业提交过程之HDFSMapReduce

作业提交全过程详解 (1)作业提交 第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。 第2步:Client向RM申请一个作业id。 第3步:RM给Client返回该job资源的提交路径和作业id。 第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。 第5步:Client提交完资源后,向RM申请运行MrAp