Map Reduce shuffle 及Hadoop工作简记 --- 写给初学Hadoop和MapReduce的人

2024-05-28 04:32

本文主要是介绍Map Reduce shuffle 及Hadoop工作简记 --- 写给初学Hadoop和MapReduce的人,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MapReduce学习笔记

1Map

输入:<key,value> key是文本的每一行的偏移量,0开始,以字节为单位

输出:<key,value>

map函数(必须是这个名字)的参数,(输入key,输入valueContext


代码框架:

//前两个参数 输入类型后两个参数输出类型

publicstaticclassMapClass

extendsMapper<Object, Text, Text, IntWritable>{

publicvoidmap(Object key, Text value, Context context)throwsIOException,InterruptedException{

context.write(desirekey,desirevalue);//Map的输出<key,value>

}

}


2Combine

根据情况,可以没有

3Reduce

Hadoop负责将Map产生的<key,value>处理成{具有相同keyvalue集合},传给Reducer

输入:<key,(listof values)>

输出:<key,value>

reduce函数(必须是这个名字)的参数,(输入key,输入具有相同keyvalue集合,Context)其中,输入的key,value必须类型与map的输出<key,value>相同,这一点适用于mapreduce类及函数


代码框架:

//前两个参数 输入类型后两个参数输出类型

publicstaticclassReduceClass

extendsReducer<Text,IntWritable,Text,Writable>{

publicvoidreduce(Text key, Iterable<valueType>values, Context context)throwsIOException, InterruptedException{

context.write(desirekey,desirevalue);

//Reduce的输出<key,value>

}

}


4Context

context.write()基本就是输出的意思,在map就是map输出,在reduce就是reduce的输出。

context.write()是会直接在每次输出的时候换行的,如果需要在中间加上格式性的比如空格,自己在输入参数里处理newText(str1+””);等等


5main函数的配置

a.定义Configurationconf = newConfiguration();

b.String[]otherArgs = newGenericOptionsParser(conf,args).getRemainingArgs();

otherArgs[]数组里存的分别是输入路径和输出路径,并判断是不是存在路径

c.run

Job job = newJob(conf, String类型的名字);

job.setJarByClass()

job.setMapperClass

job.setCombinerClass //根据情况,可以没有

job.setReducerClass

job.setPartitionerClass //根据情况,可以没有


d.设置输出输入路径并正常退出

FileInputFormat.addInputPath

FileOutputFormat.setOutputPath


System.exit(job.waitForCompletion(true)? 0 : 1);

6Shuffle

Map端的shuffle:map的输出内存缓冲区是环形结构(见下一行代码)

finalint kvnext = (kvindex + 1) % kvoffsets.length;

当内存缓冲区满了,就把缓冲区内容分割(spill)到磁盘,此时,若map生成结果的速度快于写出速度,缓冲区会满,那么map需要等待至分割结束。写出时调用sortAndSpill并创建spill文件,按照key值进行排序,(若有combine先进性combine),然后依照划分顺序将结果写入Spill文件。

每个Map结束之后,在MapTaskTracker还会将众多的spill文件中的数据按照划分(Partitioner)重新划分,以便于Reduce处理。

Reduce端的shuffle:JobTracker能够记录map输出与TaskTracker的映射关系。reduce定期向JobTracker获取map输出并复制到本地而不会等待全部的map结束。reduce在复制的同时把从各个mapTaskTracker复制的输出文件整合,维持数据原来次序

这篇关于Map Reduce shuffle 及Hadoop工作简记 --- 写给初学Hadoop和MapReduce的人的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1009543

相关文章

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

工作常用指令与快捷键

Git提交代码 git fetch  git add .  git commit -m “desc”  git pull  git push Git查看当前分支 git symbolic-ref --short -q HEAD Git创建新的分支并切换 git checkout -b XXXXXXXXXXXXXX git push origin XXXXXXXXXXXXXX

Collection List Set Map的区别和联系

Collection List Set Map的区别和联系 这些都代表了Java中的集合,这里主要从其元素是否有序,是否可重复来进行区别记忆,以便恰当地使用,当然还存在同步方面的差异,见上一篇相关文章。 有序否 允许元素重复否 Collection 否 是 List 是 是 Set AbstractSet 否

嵌入式方向的毕业生,找工作很迷茫

一个应届硕士生的问题: 虽然我明白想成为技术大牛需要日积月累的磨练,但我总感觉自己学习方法或者哪些方面有问题,时间一天天过去,自己也每天不停学习,但总感觉自己没有想象中那样进步,总感觉找不到一个很清晰的学习规划……眼看 9 月份就要参加秋招了,我想毕业了去大城市磨练几年,涨涨见识,拓开眼界多学点东西。但是感觉自己的实力还是很不够,内心慌得不行,总怕浪费了这人生唯一的校招机会,当然我也明白,毕业

husky 工具配置代码检查工作流:提交代码至仓库前做代码检查

提示:这篇博客以我前两篇博客作为先修知识,请大家先去看看我前两篇博客 博客指路:前端 ESlint 代码规范及修复代码规范错误-CSDN博客前端 Vue3 项目开发—— ESLint & prettier 配置代码风格-CSDN博客 husky 工具配置代码检查工作流的作用 在工作中,我们经常需要将写好的代码提交至代码仓库 但是由于程序员疏忽而将不规范的代码提交至仓库,显然是不合理的 所

未来工作趋势:零工小程序在共享经济中的作用

经济在不断发展的同时,科技也在飞速发展。零工经济作为一种新兴的工作模式,正在全球范围内迅速崛起。特别是在中国,随着数字经济的蓬勃发展和共享经济模式的深入推广,零工小程序在促进就业、提升资源利用效率方面显示出了巨大的潜力和价值。 一、零工经济的定义及现状 零工经济是指通过临时性、自由职业或项目制的工作形式,利用互联网平台快速匹配供需双方的新型经济模式。这种模式打破了传统全职工作的界限,为劳动

Smarty模板引擎工作机制(一)

深入浅出Smarty模板引擎工作机制,我们将对比使用smarty模板引擎和没使用smarty模板引擎的两种开发方式的区别,并动手开发一个自己的模板引擎,以便加深对smarty模板引擎工作机制的理解。 在没有使用Smarty模板引擎的情况下,我们都是将PHP程序和网页模板合在一起编辑的,好比下面的源代码: <?php$title="深处浅出之Smarty模板引擎工作机制";$content=