Hadoop MapReduce 求公司部门员工工资总和案例实现!

2023-11-10 03:00

本文主要是介绍Hadoop MapReduce 求公司部门员工工资总和案例实现!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hadoop MapReduce 求公司部门工资总和案例实现目录

    • 1.回顾MapReduce的WordCount程序
    • 2.公司各部门员工薪水表
    • 3.编写MapReduce程序
    • 4.上传jar包以及执行jar需要注意的地方
    • 5.查看执行结果

1.回顾MapReduce的WordCount程序

这是MapReduce Wordcount程序,结合起来看感觉更容易理解MapReduce程序的写法。这是WordcCount程序:MapReduce的WordCount程序

2.公司各部门员工薪水表

这是一张员工工资表,是csv文件类型,这里用两个部门举例分别是10号部门和20号部门,我们要做的是将10号部门与20号部门的员工工资总和分别求取出来。
在这里插入图片描述
在这里插入图片描述

3.编写MapReduce程序

其实编写这个程序和变写MapReduce WordCount程序是一样的,只需修改我们Mapper端,Reducer端的输入输出的数据类型,以及我们的主程序的Mapper端,Reducer端的输出的数据类型,即可。
Mapper端

package infoSalary;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;/*** @author ganxiang* IDE      IntelliJ IDEA* @project_name and filename HadoopTraining SalaryMapper* @date 2020/04/25 0025 13:41*/public class SalaryMapper extends Mapper<LongWritable, Text, IntWritable,IntWritable> {@Overrideprotected void map(LongWritable key1, Text value1, Context context) throws IOException, InterruptedException {//1,获取数据String line =value1.toString();//2,分割数据String [] data =line.split(",");//3,写出数据context.write(new IntWritable(Integer.parseInt(data[1])),new IntWritable(Integer.parseInt(data[2])));}
}

Reducer端

package infoSalary;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;/*** @author ganxiang* IDE      IntelliJ IDEA* @project_name and filename HadoopTraining SalaryReducer* @date 2020/04/25 0025 13:47*/public class SalaryReducer extends Reducer<IntWritable,IntWritable,IntWritable,IntWritable> {@Overrideprotected void reduce(IntWritable key3, Iterable<IntWritable> values3, Context context) throws IOException, InterruptedException {int sum =0;//1,求取部门工资总和for (IntWritable count:values3){sum+=count.get();}//2,写出部门号以及部门员工工资总和context.write(key3,new IntWritable(sum));}
}

Job端

package infoSalary;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import java.io.IOException;/*** @author ganxiang* IDE      IntelliJ IDEA* @project_name and filename HadoopTraining SalaryJob* @date 2020/04/25 0025 13:53*/public class SalaryJob {public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {//1,创建一个jobJob salaryJob =Job.getInstance(new Configuration());//2,设置job的入口函数salaryJob.setJarByClass(SalaryJob.class);//3,设置mappersalaryJob.setMapperClass(SalaryMapper.class);salaryJob.setMapOutputKeyClass(IntWritable.class);salaryJob.setMapOutputValueClass(IntWritable.class);//4,设置reducersalaryJob.setReducerClass(SalaryReducer.class);salaryJob.setOutputKeyClass(IntWritable.class);salaryJob.setOutputValueClass(IntWritable.class);//5,设置数据的存放路径FileInputFormat.setInputPaths(salaryJob,new Path(args[0]));FileOutputFormat.setOutputPath(salaryJob,new Path(args[1]));//6,提交任务salaryJob.waitForCompletion(true);}}

4.上传jar包以及执行jar需要注意的地方

从IDEA中打好jar包,上传到我们的虚拟环境中。在执行jar的时候需要注意一点,如果我们在同一个项目中编写了多个MapReduce程序并打成jar执行,需要在执行的时候指定package在的主函数名,如果不指定将报错无法找到主函数运行失败。如果没有在一个项目中写多个MapReduce程序打成jar包,忽略此信息。
1,此时我们的项目结构为这样的。
在这里插入图片描述
2,如果这样hadoop jar jar名执行将报错,因为同一个项目中存在多个MapReduce程序。
在这里插入图片描述
3,这样执行即可解决问题,hadoop jar jar名 package名.主函数名 。

 hadoop jar sumsalary.jar infoSalary.SalaryJob  /salary/salary.csv /output/salary

在这里插入图片描述

5.查看执行结果

5.1,任务执行成功

在这里插入图片描述
2,各部门的员工工资总和为10号部门1600,20号部门2400,经过计算没有误差。
在这里插入图片描述
ok,完工,都看到这儿了,点赞在走呗🤞🤞🤞🤞。

这篇关于Hadoop MapReduce 求公司部门员工工资总和案例实现!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/380038

相关文章

MyBatis分页查询实战案例完整流程

《MyBatis分页查询实战案例完整流程》MyBatis是一个强大的Java持久层框架,支持自定义SQL和高级映射,本案例以员工工资信息管理为例,详细讲解如何在IDEA中使用MyBatis结合Page... 目录1. MyBATis框架简介2. 分页查询原理与应用场景2.1 分页查询的基本原理2.1.1 分

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

Java实现字节字符转bcd编码

《Java实现字节字符转bcd编码》BCD是一种将十进制数字编码为二进制的表示方式,常用于数字显示和存储,本文将介绍如何在Java中实现字节字符转BCD码的过程,需要的小伙伴可以了解下... 目录前言BCD码是什么Java实现字节转bcd编码方法补充总结前言BCD码(Binary-Coded Decima

SpringBoot全局域名替换的实现

《SpringBoot全局域名替换的实现》本文主要介绍了SpringBoot全局域名替换的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录 项目结构⚙️ 配置文件application.yml️ 配置类AppProperties.Ja

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、

Java实现将HTML文件与字符串转换为图片

《Java实现将HTML文件与字符串转换为图片》在Java开发中,我们经常会遇到将HTML内容转换为图片的需求,本文小编就来和大家详细讲讲如何使用FreeSpire.DocforJava库来实现这一功... 目录前言核心实现:html 转图片完整代码场景 1:转换本地 HTML 文件为图片场景 2:转换 H

C#使用Spire.Doc for .NET实现HTML转Word的高效方案

《C#使用Spire.Docfor.NET实现HTML转Word的高效方案》在Web开发中,HTML内容的生成与处理是高频需求,然而,当用户需要将HTML页面或动态生成的HTML字符串转换为Wor... 目录引言一、html转Word的典型场景与挑战二、用 Spire.Doc 实现 HTML 转 Word1