mysql数据库100万条数据JDBC插入的各种方式效率对比。

本文主要是介绍mysql数据库100万条数据JDBC插入的各种方式效率对比。,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

mysql数据库100万条数据JDBC插入的各种方式效率对比

  下面测试四个方式:

   1 、一条一条插入  166秒/10万

   2、jdbc采用事务提交  135秒/10万

   3、batch方式(内部实现方式-拼接values) 12.73秒/10万

   4、事务+batch方式   9.99秒/10万

package test.jbdc;import java.sql.Connection;
import java.sql.PreparedStatement;
import java.sql.SQLException;import org.junit.Test;/*** 大数据量的插入---> 测试100万条数据  【一共5个字段的表】* 方法1、普通采用jdbc插入* 方法2、jdbc用事务进行提交  --> 事务提交是把语句一起执行* 方法3、batch语句   --> 内部实现是是把 values 后面的插入值变成成 values(,,,),(,,,,) :*/
public class BigDataTest {/*** 一、普通方式* 时间:10万条:16672ms 折合100万条 = 166.72秒 */@Testpublic void test1(){Connection conn = JDBCUtil.getConnection();PreparedStatement stmt  = null;long t1 = System.currentTimeMillis();try {stmt = conn.prepareStatement("insert into test_yxtj values(?,?,?,?,?)");for (int i = 0; i <100000; i++) {stmt.setInt(1, i);stmt.setFloat(2, i);stmt.setString(3, i+"");stmt.setInt(4, i);stmt.setInt(5, i);stmt.execute();}} catch (SQLException e) {e.printStackTrace();}finally {JDBCUtil.release(null, stmt, conn);}long t2 = System.currentTimeMillis();System.out.println((t2-t1));}/*** 二、事务提交 :* 时间:10万条:13558ms 折合100万条 = 135.5秒 */@Testpublic void test2(){Connection conn = JDBCUtil.getConnection();PreparedStatement stmt  = null;long t1 = System.currentTimeMillis();try {conn.setAutoCommit(false);stmt = conn.prepareStatement("insert into test_yxtj values(?,?,?,?,?)");for (int i = 0; i <100000; i++) {stmt.setInt(1, i);stmt.setFloat(2, i);stmt.setString(3, i+"");stmt.setInt(4, i);stmt.setInt(5, i);stmt.execute();}conn.commit();} catch (SQLException e) {e.printStackTrace();}finally {JDBCUtil.release(null, stmt, conn);}long t2 = System.currentTimeMillis();System.out.println((t2-t1));}/*** 三、批处理:* 特别注意:需要url参数加:rewriteBatchedStatements=true* url范例: jdbc:mysql://127.0.0.1/XXX?characterEncoding=UTF-8&rewriteBatchedStatements=true* 时间 : 10万条:1273ms 折合100万条 = 12.73秒 */@Testpublic void test3(){Connection conn = JDBCUtil.getConnection();PreparedStatement stmt  = null;long t1 = System.currentTimeMillis();try {stmt = conn.prepareStatement("insert into test_yxtj values(?,?,?,?,?)");for (int i = 0; i <100000; i++) {stmt.setInt(1, i);stmt.setFloat(2, i);stmt.setString(3, i+"");stmt.setInt(4, i);stmt.setInt(5, i);stmt.addBatch();}stmt.executeBatch();} catch (SQLException e) {e.printStackTrace();}finally {JDBCUtil.release(null, stmt, conn);}long t2 = System.currentTimeMillis();System.out.println((t2-t1));}/*** 四、事务+批处理并且分批执行* 结论:加事务时间无影响,但是分批次能提供效率的增加* 时间:100万条:9900ms 折合100万条 = 9.99秒 * 时间:500万条:46943ms = 47秒*/@Testpublic void test4(){Connection conn = JDBCUtil.getConnection();PreparedStatement stmt  = null;long t1 = System.currentTimeMillis();try {//conn.setAutoCommit(false);  /**取消事务对时间无太大影响!!*/stmt = conn.prepareStatement("insert into test_yxtj values(?,?,?,?,?)");//            for (int i = 1; i <=100; i++) { //1万条一次
//                for (int j = 1; j <=10000; j++) {
//                    stmt.setInt(1, ((i-1)*10000)+j);
//                    stmt.setFloat(2, ((i-1)*10000)+j);
//                    stmt.setString(3, ((i-1)*10000)+j+"");
//                    stmt.setInt(4, ((i-1)*10000)+j);
//                    stmt.setInt(5, ((i-1)*10000)+j);
//                    stmt.addBatch();
//                }
//                stmt.executeBatch();
//                stmt.clearBatch(); /**清除缓存*/
//                System.out.println("执行到第"+i+"外循环");
//            }//conn.commit();//-------> 上面固定了100万条,假如不确定多少数据量的情况,就不好指定2层循环.可采用下面的样子int size = 5000000;for (int i = 0; i < size; i++) {stmt.setInt(1, i);stmt.setFloat(2, i);stmt.setString(3, i+"");stmt.setInt(4, i);stmt.setInt(5, i);stmt.addBatch();if(i%10000==0||i==size-1){ //1万次一条,或者最后一次进行提交。stmt.executeBatch();stmt.clearBatch(); /**清除缓存*/System.out.println("执行到第"+i/10000+"外循环");}}} catch (SQLException e) {
//            try {
//                conn.rollback();
//            } catch (SQLException e1) {
//                e1.printStackTrace();
//            }}finally {JDBCUtil.release(null, stmt, conn);}long t2 = System.currentTimeMillis();System.out.println((t2-t1));}}

这篇关于mysql数据库100万条数据JDBC插入的各种方式效率对比。的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/481885

相关文章

SpringBoot中@Value注入静态变量方式

《SpringBoot中@Value注入静态变量方式》SpringBoot中静态变量无法直接用@Value注入,需通过setter方法,@Value(${})从属性文件获取值,@Value(#{})用... 目录项目场景解决方案注解说明1、@Value("${}")使用示例2、@Value("#{}"php

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

MySQL的JDBC编程详解

《MySQL的JDBC编程详解》:本文主要介绍MySQL的JDBC编程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言一、前置知识1. 引入依赖2. 认识 url二、JDBC 操作流程1. JDBC 的写操作2. JDBC 的读操作总结前言本文介绍了mysq

java.sql.SQLTransientConnectionException连接超时异常原因及解决方案

《java.sql.SQLTransientConnectionException连接超时异常原因及解决方案》:本文主要介绍java.sql.SQLTransientConnectionExcep... 目录一、引言二、异常信息分析三、可能的原因3.1 连接池配置不合理3.2 数据库负载过高3.3 连接泄漏

Linux下MySQL数据库定时备份脚本与Crontab配置教学

《Linux下MySQL数据库定时备份脚本与Crontab配置教学》在生产环境中,数据库是核心资产之一,定期备份数据库可以有效防止意外数据丢失,本文将分享一份MySQL定时备份脚本,并讲解如何通过cr... 目录备份脚本详解脚本功能说明授权与可执行权限使用 Crontab 定时执行编辑 Crontab添加定

使用Python实现Word文档的自动化对比方案

《使用Python实现Word文档的自动化对比方案》我们经常需要比较两个Word文档的版本差异,无论是合同修订、论文修改还是代码文档更新,人工比对不仅效率低下,还容易遗漏关键改动,下面通过一个实际案例... 目录引言一、使用python-docx库解析文档结构二、使用difflib进行差异比对三、高级对比方

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

HTTP 与 SpringBoot 参数提交与接收协议方式

《HTTP与SpringBoot参数提交与接收协议方式》HTTP参数提交方式包括URL查询、表单、JSON/XML、路径变量、头部、Cookie、GraphQL、WebSocket和SSE,依据... 目录HTTP 协议支持多种参数提交方式,主要取决于请求方法(Method)和内容类型(Content-Ty