用php导入10W条+ 级别的csv大文件数据到mysql。导出10W+级别数据到csv文件

2024-02-14 01:32

本文主要是介绍用php导入10W条+ 级别的csv大文件数据到mysql。导出10W+级别数据到csv文件,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


导入10W+的csv数据到mysql


[php] view plain copy
  1. $handle=fopen("1.csv","r");  
  2.       
  3. //将文件一次性全部读出来  
  4. $excelData = array();  
  5. $content = trim(file_get_contents($fileName));  
  6. $excelData = explode("\n",$content);  

或者直接用$excelData = file($file);   file() 函数直接将数据读出并放入数组当中。

我们先将所有的文件一次性读出来。放到一个数组$excelData 中。这个时候,我们就可以不用管这个csv 文件了,纯粹了php 操作数组了。所以。不会崩溃异常:

[php] view plain copy
  1. $chunkData = array_chunk($excelData , 5000); // 将这个10W+ 的数组分割成5000一个的小数组。这样就一次批量插入5000条数据。mysql 是支持的。  
  2.         $count = count($chunkData);  
  3.         for ($i = 0; $i < $count$i++) {  
  4.             $insertRows = array();  
  5.             foreach($chunkData[$ias $value){  
  6.                 $string = mb_convert_encoding(trim(strip_tags($value)), 'utf-8''gbk');//转码  
  7.                 $v = explode(',', trim($string));  
  8.                 $row = array();  
  9.                 $row['cdate']    = empty($v[0]) ? date('Y-m-d') : date('Y-m-d',strtotime($v[0]));  
  10.                 $row['business'] = $v[1];  
  11.                 $row['project']  = $v[2];  
  12.                 $row['shopname'] = $v[3];  
  13.                 $row['shopid']   = $v[4];  
  14.                 $row['fanli']    = formatNumber($v[5]);  
  15.                 $row['fb']   = $v[6] * 100;  
  16.                 $row['jifen']    = $v[7];  
  17.                 $sqlString       = '('."'".implode( "','"$row ) . "'".')'//批量  
  18.                 $insertRows[]    = $sqlString;  
  19.             }  
  20.             $result = $model->addDetail($insertRows); //批量将sql插入数据库。  
  21.         }  


插入数据库当然是批量插入了:

[php] view plain copy
  1. public function addDetail($rows){  
  2.         if(empty($rows)){  
  3.             return false;  
  4.         }  
  5.         //数据量较大,采取批量插入  
  6.         $data = implode(','$rows);  
  7.         $sql = "INSERT IGNORE INTO tb_account_detail(cdate,business,project,shopname,shopid,fanli,fb,jifen)  
  8.                  VALUES {$data}";  
  9.         $result = $this->query($sql);  
  10.         return true;  
  11.     }  



ok ! 亲测试。10W 数据。6个字段。插入需要10秒。

导出10W+的数据到csv

放弃之前写的一篇博客中用到的方法: http://blog.csdn.net/think2me/article/details/8596833 。原因是:当超过50W+ 以上的数据时,有可能浏览器崩溃,内存超。

这个方法是写文件的方式。然后再把文件弹出下载。

[php] view plain copy
  1. public function dump2Excel() {  
  2.   
  3.     set_time_limit(0);  
  4.     ini_set('memory_limit''640M');  
  5.     //获取列表  
  6.     $name = $this->getActionName();  
  7.     $model = D(GROUP_NAME . '.' . $name);  
  8.     $map = $this->_search();  
  9.     //文件名  
  10.     if (isset($_GET['error']) && $_GET['error'] > 0) {  
  11.         $filename = C('IMG_PATH').'account_data_error_' . $map['action_id'] . '_' . date('Y-m-d'mktime()) . '.csv';  
  12.     }else{  
  13.         $filename = C('IMG_PATH').'account_data_all_' . $map['action_id'] . '_' . date('Y-m-d'mktime()) . '.csv';  
  14.     }  
  15.   
  16.     //用户信息,商家ID,联盟,商家订单号,商品分类,确认类别,下单时间,完成时间,  
  17.     //实际支付金额,佣金,佣金补贴,返利,F币,论坛积分,备注,强制入库  
  18.     // 'user_info', 'shopid', 'league', 'order_id', 'classify', 'confirm_type',  
  19.     //'buydate', 'paydate', 'real_pay', 'commission', 'commission_plus',  
  20.     // 'fanli', 'jifen', 'bbs', 'remarks', 'persist_execute', 'unique_sign','error_code'  
  21.     $header[] =  iconv("utf-8""gb2312""用户信息");  
  22.     $header[] = iconv("utf-8""gb2312""商家ID");  
  23.     $header[] = iconv("utf-8""gb2312""联盟");  
  24.     $header[] = iconv("utf-8""gb2312""商家订单号");  
  25.     $header[] = iconv("utf-8""gb2312""商品分类");  
  26.     $header[] = iconv("utf-8""gb2312""确认类别");  
  27.     $header[] = iconv("utf-8""gb2312""下单时间");  
  28.     $header[] = iconv("utf-8""gb2312""完成时间");  
  29.     $header[] = iconv("utf-8""gb2312""实际支付金额");  
  30.     $header[] = iconv("utf-8""gb2312""佣金");  
  31.     $header[] = iconv("utf-8""gb2312""佣金补贴");  
  32.     $header[] = iconv("utf-8""gb2312""返利");  
  33.     $header[] = iconv("utf-8""gb2312""F币");  
  34.     $header[] = iconv("utf-8""gb2312""论坛积分");  
  35.     $header[] = iconv("utf-8""gb2312""备注");  
  36.     $header[] = iconv("utf-8""gb2312""强制入库");  
  37.     $header[] = iconv("utf-8""gb2312""唯一标识");  
  38.     $header[] = iconv("utf-8""gb2312""错误信息");  
  39.   
  40.     $headerFile = implode(','$header);  
  41.   
  42.     //写入标题  
  43.     @unlink($filename);  
  44.     file_put_contents($filename$headerFile."\n");  
  45.   
  46.     //获取所有error_code  
  47.     $list = D('Fanli')->table('tb_account_action_data_error_code')->field('id,err_msg')->findAll();  
  48.     $error_msg = array();  
  49.     foreach ($list as $value) {  
  50.         $error_msg[$value['id']] = $value['err_msg'];  
  51.     }  
  52.     //导入错误的数据  
  53.     if (isset($_GET['error']) && $_GET['error'] > 0) {  
  54.         $map['error_code'] = array('gt', 0);  
  55.     }  
  56.   
  57.     if (!empty($map['action_id'])) {  
  58.         $allCount = $model->where($map)->field('count(1) as count')->select();  
  59.         $pageLimit = ceil($allCount[0]['count']/self::PAGE_COUNT);  
  60.         $voList = array();  
  61.         //打开文件  
  62.         if (!$handle = fopen($filename'a')) {  
  63.             echo "不能打开文件 $filename";  
  64.             exit;  
  65.         }  
  66.         //分页获取  
  67.         for($i=0;$i<$pageLimit;$i++){  
  68.             $count = self::PAGE_COUNT;  
  69.             $start = $count * $i;  
  70.             $limit = "$start,$count";  
  71.             $voList  = $model->where($map)->limit($limit)->order('id desc')->findAll();  
  72.             //写入文件  
  73.             $excelString = array();  
  74.             foreach ($voList as $v) {  
  75.                 $dumpExcel = array();  
  76.                 $dumpExcel[] = mb_convert_encoding($v['user_info'], 'GBK''UTF-8');  
  77.                 $dumpExcel[] = mb_convert_encoding($v['shopid'], 'GBK''UTF-8');  
  78.                 $dumpExcel[] = mb_convert_encoding($v['league'], 'GBK''UTF-8');  
  79.                 $dumpExcel[] = mb_convert_encoding($v['order_id'], 'GBK''UTF-8');  
  80.                 $dumpExcel[] = mb_convert_encoding($v['classify'], 'GBK''UTF-8');  
  81.                 $dumpExcel[] = mb_convert_encoding($v['confirm_type'], 'GBK''UTF-8');  
  82.                 $dumpExcel[] = "'".mb_convert_encoding($v['buydate'], 'GBK', 'UTF-8');  
  83.                 $dumpExcel[] = "'".mb_convert_encoding($v['paydate'], 'GBK', 'UTF-8');  
  84.                 $dumpExcel[] = mb_convert_encoding($v['real_pay'], 'GBK''UTF-8');  
  85.                 $dumpExcel[] = mb_convert_encoding($v['commission'], 'GBK''UTF-8');  
  86.                 $dumpExcel[] = mb_convert_encoding($v['commission_plus'], 'GBK''UTF-8');  
  87.                 $dumpExcel[] = mb_convert_encoding($v['fanli'], 'GBK''UTF-8');  
  88.                 $dumpExcel[] = mb_convert_encoding($v['jifen'], 'GBK''UTF-8');  
  89.                 $dumpExcel[] = mb_convert_encoding($v['bbs'], 'GBK''UTF-8');  
  90.                 $dumpExcel[] = mb_convert_encoding($v['remarks'], 'GBK''UTF-8');  
  91.                 $dumpExcel[] = intval($v['persist_execute']);  
  92.                 $dumpExcel[] = mb_convert_encoding($v['unique_sign'], 'GBK''UTF-8');  
  93.                 $dumpExcel[] = mb_convert_encoding($error_msg[$v['error_code']], 'GBK''UTF-8');  
  94.                 $excelString[] = implode(',',$dumpExcel);  
  95.             }  
  96.             //只能一行行些。不然容易漏  
  97.             foreach($excelString as $content){  
  98.                 fwrite($handle$content . "\n");  
  99.             }  
  100.             unset($excelString);  
  101.         }  
  102.         fclose($handle);  
  103.     }  
  104.     //导出下载  
  105.     header("Content-type: application/octet-stream");  
  106.     header('Content-Disposition: attachment; filename="' . basename($filename) . '"');  
  107.     header("Content-Length: "filesize($filename));  
  108.     readfile($filename);  


这篇关于用php导入10W条+ 级别的csv大文件数据到mysql。导出10W+级别数据到csv文件的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/707165

相关文章

Mysql虚拟列的使用场景

《Mysql虚拟列的使用场景》MySQL虚拟列是一种在查询时动态生成的特殊列,它不占用存储空间,可以提高查询效率和数据处理便利性,本文给大家介绍Mysql虚拟列的相关知识,感兴趣的朋友一起看看吧... 目录1. 介绍mysql虚拟列1.1 定义和作用1.2 虚拟列与普通列的区别2. MySQL虚拟列的类型2

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

mysql数据库分区的使用

《mysql数据库分区的使用》MySQL分区技术通过将大表分割成多个较小片段,提高查询性能、管理效率和数据存储效率,本文就来介绍一下mysql数据库分区的使用,感兴趣的可以了解一下... 目录【一】分区的基本概念【1】物理存储与逻辑分割【2】查询性能提升【3】数据管理与维护【4】扩展性与并行处理【二】分区的

MySQL中时区参数time_zone解读

《MySQL中时区参数time_zone解读》MySQL时区参数time_zone用于控制系统函数和字段的DEFAULTCURRENT_TIMESTAMP属性,修改时区可能会影响timestamp类型... 目录前言1.时区参数影响2.如何设置3.字段类型选择总结前言mysql 时区参数 time_zon

Python MySQL如何通过Binlog获取变更记录恢复数据

《PythonMySQL如何通过Binlog获取变更记录恢复数据》本文介绍了如何使用Python和pymysqlreplication库通过MySQL的二进制日志(Binlog)获取数据库的变更记录... 目录python mysql通过Binlog获取变更记录恢复数据1.安装pymysqlreplicat

Linux使用dd命令来复制和转换数据的操作方法

《Linux使用dd命令来复制和转换数据的操作方法》Linux中的dd命令是一个功能强大的数据复制和转换实用程序,它以较低级别运行,通常用于创建可启动的USB驱动器、克隆磁盘和生成随机数据等任务,本文... 目录简介功能和能力语法常用选项示例用法基础用法创建可启动www.chinasem.cn的 USB 驱动

使用SQL语言查询多个Excel表格的操作方法

《使用SQL语言查询多个Excel表格的操作方法》本文介绍了如何使用SQL语言查询多个Excel表格,通过将所有Excel表格放入一个.xlsx文件中,并使用pandas和pandasql库进行读取和... 目录如何用SQL语言查询多个Excel表格如何使用sql查询excel内容1. 简介2. 实现思路3

Oracle数据库使用 listagg去重删除重复数据的方法汇总

《Oracle数据库使用listagg去重删除重复数据的方法汇总》文章介绍了在Oracle数据库中使用LISTAGG和XMLAGG函数进行字符串聚合并去重的方法,包括去重聚合、使用XML解析和CLO... 目录案例表第一种:使用wm_concat() + distinct去重聚合第二种:使用listagg,

Python实现将实体类列表数据导出到Excel文件

《Python实现将实体类列表数据导出到Excel文件》在数据处理和报告生成中,将实体类的列表数据导出到Excel文件是一项常见任务,Python提供了多种库来实现这一目标,下面就来跟随小编一起学习一... 目录一、环境准备二、定义实体类三、创建实体类列表四、将实体类列表转换为DataFrame五、导出Da

Python实现数据清洗的18种方法

《Python实现数据清洗的18种方法》本文主要介绍了Python实现数据清洗的18种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录1. 去除字符串两边空格2. 转换数据类型3. 大小写转换4. 移除列表中的重复元素5. 快速统