本文主要是介绍512M读取亿级数据时候,进行优化显示结果1亿五千万链表时候出现溢出,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
需要使用分布式或者多线程:单机运行结果只能怪到1亿这个数量级
并发编程系列监测结果----读取开始 main D:\root\WriteBillionNum\billion.txt2020-01-23 13:14:58.00273
[Throwable]并发编程系列监测结果---1000000000个数据全部读取完成耗时 147078255个出现异常
[Throwable]并发编程系列监测结果---1000000000个数据全部读取完成耗时c: 3 numStr: 01063652
[Throwable]并发编程系列监测结果---1000000000个数据全部读取完成耗时 1015580.0毫秒/1000->秒
[Throwable]并发编程系列监测结果---1000000000个数据全部读取完成 freeMemory空间: 11839120 总共内存totalMemory: 523763712
[Throwable]并发编程系列监测结果---1000000000个数据异常信息 GC overhead limit exceeded
并发编程系列监测结果---1000000000个数据全部读取完成耗时 1015598.0毫秒/1000->秒
并发编程系列监测结果----读取结束 main D:\root\WriteBillionNum\billion.txt2020-01-23 13:31:53.00872
/******* * * * 监测数据1000个数据运行时候: 并发编程系列监测结果----写入开始 main* D:\root\WriteBillionNum\billion.txt2020-01-22 15:52:08.00191* 并发编程系列监测结果---10000个数据写入每行一个数据耗时 127.0毫秒/1000->秒 并发编程系列监测结果----写入结束 main* D:\root\WriteBillionNum\billion.txt2020-01-22 15:52:08.
这篇关于512M读取亿级数据时候,进行优化显示结果1亿五千万链表时候出现溢出的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!