使用Java处理大数据避坑指南

2024-04-16 15:32

本文主要是介绍使用Java处理大数据避坑指南,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

视频地址 https://www.bilibili.com/video/BV1MZ4y1S741


最近接到一个任务:对一大批数据进行处理,先使用接口把数据拉取到本地,然后再写脚本进行处理,数据量大概有几百万,所以单线程就不满足了。

处理逻辑其实不重要,毕竟这个没有重用性,就单纯来说说这个多线程是如何来处理数据的,以及我在里面所踩的坑。


需要请求一个接口去拿数据,接口的参数有这三个pagepageSizeprojectId,你可以理解这个接口就是一个列表的接口

一个接口,只要请求参数对了,那么结果应该就没问题了。即便是还有问题,那其实也不重要了,我们只是调用方。

所以我把每个请求的参数存入数据库,通过判断这个请求参数,来判断我们请求的数据是否有问题。(这个是在我拉取数据失败N次想到的办法)

yxx_request表

CREATE TABLE `yxx_request` (`id` int(11) NOT NULL AUTO_INCREMENT COMMENT 'id',`page` varchar(10) COLLATE utf8mb4_unicode_ci NOT NULL,`page_size` varchar(10) COLLATE utf8mb4_unicode_ci NOT NULL,`project_id` varchar(50) COLLATE utf8mb4_unicode_ci DEFAULT NULL COMMENT '项目ID',`threadName` varchar(50) COLLATE utf8mb4_unicode_ci DEFAULT NULL,PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=50400 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_unicode_ci COMMENT='111';

下面就用代码模拟有50个不同的projectId,每个projectId下有50页数据。


一、单线程


伪代码如下:

public void xdxTestOne() {System.out.println("开始了......");final int pageCount = 50;List<String> projectIds = new ArrayList<>();for (int i = 0;i < 50; i++) {projectIds.add(UUID.randomUUID().toString());}HashMap params = new HashMap();params.put("pageSize", 100);for (String projectId : projectIds) {params.put("projectId", projectId);for (int i = 1; i <= pageCount; i++) {params.put("page", i);System.out.println(JSON.toJSONString(params));params.put("threadName", Thread.currentThread().getName());yxxBatchDataMapper.insertRequest(params);// TODO 通过接口去获取数据,然后存储到本地}}System.out.println("结束了......");
}

insertRequest

INSERT INTO yxx_request (page, page_size, project_id, threadName) 
VALUES (#{page}, #{pageSize}, #{projectId}, #{threadName})

上面的代码很简单,数据也没有任何问题,就不做展示了。


二、多线程


把上面的代码改造成多线程如下

public void xdxTestTwo() {System.out.println("开始了2......");final int pageCount = 50;List<String> projectIds = new ArrayList<>();for (int i = 0;i < 50; i++) {projectIds.add(UUID.randomUUID().toString());}HashMap params = new HashMap();params.put("pageSize", 100);ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(15, 15, 0, TimeUnit.SECONDS, new LinkedBlockingQueue<>());for (String projectId : projectIds) {params.put("projectId", projectId);threadPoolExecutor.execute(() -> {for (int i = 1; i <= pageCount; i++) {params.put("page", i);System.out.println(JSON.toJSONString(params));params.put("threadName", Thread.currentThread().getName());yxxBatchDataMapper.insertRequest(params);}});}System.out.println("结束了2......");
}

ThreadPoolExecutor 是线程池,不熟悉的小伙伴可以先看看这个 Java线程池详解


大家可以想象一下上面代码执行的结果,判断一下这样的改造是否有问题呢?

当然,既然我如此的问,那一定是有问题的,首先我们看看数据量,通过上面的描述我们是要模拟 50*50 的请求,那应该是有 2500 条请求才对的。

在这里插入图片描述
首先这个数量就对不上了,正确的次数应该 2500

在这里插入图片描述
page , page_size,project_id, 这三个字段进行分组应该是唯一的,但现在却找到了多条数据

在这里插入图片描述

明显数据出了问题,这个问题,我排查了很久,其实这是多线程一个常见的问题:多线程共享一个变量,A线程改变了数据,但B线程还在使用, 解决的办法也很简单:把共享变量改成多例的

改造后的代码

public void xdxTestTwo() {System.out.println("开始了2......");final int pageCount = 50;List<String> projectIds = new ArrayList<>();for (int i = 0;i < 50; i++) {projectIds.add(UUID.randomUUID().toString());}ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(15, 15, 0, TimeUnit.SECONDS, new LinkedBlockingQueue<>());for (String projectId : projectIds) {threadPoolExecutor.execute(() -> {HashMap params = new HashMap();params.put("pageSize", 100);params.put("projectId", projectId);for (int i = 1; i <= pageCount; i++) {params.put("page", i);System.out.println(JSON.toJSONString(params));params.put("threadName", Thread.currentThread().getName());yxxBatchDataMapper.insertRequest(params);}});}System.out.println("结束了2......");
}

三、问题

其实说白了这个问题的解决办法是很简单的,只是多线程共用了单例变量,但在写这些个代码还是遇到了很多的问题


3-1、如何启动运行

上面代码我们是写好了,怎么运行它呢?因为我们现在都是基于SpringBoot开发,我想大家应该也会和我一样,直接写一个controller,然后一个http请求就完事了。

这看似没有任何问题,但实际存在大问题,我最开始就是这样做的,然后数据库一直存在重复的数据(共享变量也是导致数据重复的原因之一),后面我在方法的第一行打印了一个日志,发现这个方法被请求了多次

使用postman和浏览器都是相同的结果,应该是http的重试机制导致的。

解决的办法也有两个

  • 一个是使用定时任务去执行
  • 一个是方法异步,调用成功直接返回结果 (推荐)

3-2、多线程共享变量

这个上面已经解释了


3-3、数据分页

字面意思,就是sql分页 LIMIT page, pageSize,但现在我们写代码都早已习惯了各种分页插件,没有自己去写过,下面就是我传递的page, pageSize

  • 1 500
  • 2 500
  • 3 500

正确的传参(还是在请教老大看出来的)

  • 0 500
  • 501 500
  • 1001 500

3-4、提升速度

  • 一般处理数据,可能会单独的去创建一些零时表,然后对这个表去进行增删改查操作,这时候我们经常会忘记给这个零时表加索引

  • 操作数据库能批量就批量,当然要注意数据量 500-1000条/次 还是ok的

  • 能在本地就在本地跑,一般我们自己的电脑都是16G+,服务器除非是线上,测试环境都很小,我在测试环境开50个线程就挂机了,在本地就不会。


3-N、其它

这里给处理数据的一些建议

  • 处理线上数据一定、一定、一定要备份
  • 先写出单线程,测试执行没问题了再改多线程(熟悉之后改起来很快)
  • 在处理数据的时候不知道会出现什么问题,最好给数据加一个标识,这样处理中断不至于从头开始

关注我吧,一起学习、一起成长

在这里插入图片描述

这篇关于使用Java处理大数据避坑指南的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/909184

相关文章

Spring Boot @RestControllerAdvice全局异常处理最佳实践

《SpringBoot@RestControllerAdvice全局异常处理最佳实践》本文详解SpringBoot中通过@RestControllerAdvice实现全局异常处理,强调代码复用、统... 目录前言一、为什么要使用全局异常处理?二、核心注解解析1. @RestControllerAdvice2

Spring IoC 容器的使用详解(最新整理)

《SpringIoC容器的使用详解(最新整理)》文章介绍了Spring框架中的应用分层思想与IoC容器原理,通过分层解耦业务逻辑、数据访问等模块,IoC容器利用@Component注解管理Bean... 目录1. 应用分层2. IoC 的介绍3. IoC 容器的使用3.1. bean 的存储3.2. 方法注

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语

Python设置Cookie永不超时的详细指南

《Python设置Cookie永不超时的详细指南》Cookie是一种存储在用户浏览器中的小型数据片段,用于记录用户的登录状态、偏好设置等信息,下面小编就来和大家详细讲讲Python如何设置Cookie... 目录一、Cookie的作用与重要性二、Cookie过期的原因三、实现Cookie永不超时的方法(一)

Python内置函数之classmethod函数使用详解

《Python内置函数之classmethod函数使用详解》:本文主要介绍Python内置函数之classmethod函数使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 类方法定义与基本语法2. 类方法 vs 实例方法 vs 静态方法3. 核心特性与用法(1编程客

Spring事务传播机制最佳实践

《Spring事务传播机制最佳实践》Spring的事务传播机制为我们提供了优雅的解决方案,本文将带您深入理解这一机制,掌握不同场景下的最佳实践,感兴趣的朋友一起看看吧... 目录1. 什么是事务传播行为2. Spring支持的七种事务传播行为2.1 REQUIRED(默认)2.2 SUPPORTS2

怎样通过分析GC日志来定位Java进程的内存问题

《怎样通过分析GC日志来定位Java进程的内存问题》:本文主要介绍怎样通过分析GC日志来定位Java进程的内存问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、GC 日志基础配置1. 启用详细 GC 日志2. 不同收集器的日志格式二、关键指标与分析维度1.

Java进程异常故障定位及排查过程

《Java进程异常故障定位及排查过程》:本文主要介绍Java进程异常故障定位及排查过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、故障发现与初步判断1. 监控系统告警2. 日志初步分析二、核心排查工具与步骤1. 进程状态检查2. CPU 飙升问题3. 内存

Linux中压缩、网络传输与系统监控工具的使用完整指南

《Linux中压缩、网络传输与系统监控工具的使用完整指南》在Linux系统管理中,压缩与传输工具是数据备份和远程协作的桥梁,而系统监控工具则是保障服务器稳定运行的眼睛,下面小编就来和大家详细介绍一下它... 目录引言一、压缩与解压:数据存储与传输的优化核心1. zip/unzip:通用压缩格式的便捷操作2.

java中新生代和老生代的关系说明

《java中新生代和老生代的关系说明》:本文主要介绍java中新生代和老生代的关系说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、内存区域划分新生代老年代二、对象生命周期与晋升流程三、新生代与老年代的协作机制1. 跨代引用处理2. 动态年龄判定3. 空间分