MapReduce工作流程(Hadoop3.x)

2024-04-18 05:20

本文主要是介绍MapReduce工作流程(Hadoop3.x),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MapReduce 是一种用于并行处理大规模数据集的——编程模型和处理框架。它通常用于分布式计算环境中,如Apache Hadoop。

工作流程

1. 切分阶段(Splitting

  • 数据集被分成多个数据块,每个数据块的大小通常在64MB到128MB之间。
  • 切分可以按照数据的行数、字节数或其他标准进行。
  • 数据块的切分通常在输入阶段完成,然后将切分后的数据块分配到集群中的不同节点上进行处理。

示例

假设我们有一个大型的文本文件 input.txt,大小为 1GB,存储在 Hadoop 分布式文件系统(HDFS)中。现在我们要对这个文件进行 Word Count(词频统计)操作,即统计每个单词出现的次数。

  1. 数据块划分
    • HDFS 默认的块大小为 128MB。因此,1GB 的文件将被划分成大约 8 个数据块(实际划分可能会有细微差别),每个数据块的大小接近 128MB。

Tips:如果磁盘(固态)读写速度较快,也可以设置为256MB大小,块的大小设置主要取决于磁盘传输速率。

  1. 切分策略

    • 对于文本文件,通常的切分策略是按行切分。即每行作为一个数据块,这样可以保证切分后的数据块中不会跨越行,方便后续处理。
    • 例如,如果一个数据块中包含多行文本,则每行都属于同一个数据块,不会被拆分到不同的数据块中。
  2. 切分过程

    • Hadoop 提供了默认的 TextInputFormat 类来处理文本文件的切分操作。这个类会按照指定的切分策略(默认按行)将输入文件切分成若干个数据块。
    • 在切分过程中,TextInputFormat 首先会获取输入文件的元数据(如文件大小、块大小等),然后根据切分策略确定每个数据块的起始偏移量和大小。
    • 最终,TextInputFormat 返回一个包含切分信息的数据结构(比如 InputSplit 对象),用于后续的 Map 任务处理。
  3. 切分器接口

    • TextInputFormat 类实现了 InputFormat 接口,其中包含了 getSplits()createRecordReader() 方法。
    • getSplits() 方法负责确定输入文件的切分方式,返回一个包含切分信息的数据结构(比如 InputSplit 对象)。
    • createRecordReader() 方法负责创建一个用于读取数据块内容的 RecordReader 对象,以便后续的 Map 任务处理。
  4. 切分粒度控制

    • 在切分过程中,可以通过调整配置参数(如块大小、最小切分大小等)来控制切分粒度,以满足作业性能和效率的要求。
    • 例如,可以根据文件大小和集群资源情况来调整块大小,以平衡切分粒度和并行度。

通过切分阶段的处理,我们将大型文本文件切分成若干个适合并行处理的数据块,为后续的 Map 阶段提供了并行化的基础。这样,每个 Map 任务可以独立处理一个数据块,从而提高作业的处理速度和效率。


2. 映射阶段(Mapping

当数据被切分成适当大小的数据块后,接下来就是映射阶段(Mapping Stage),也称为 Map 阶段。在这个阶段,每个数据块都会被传递给一个或多个 Map 任务进行处理。

  1. Map 任务的执行

    • 映射阶段,每个数据块都会被分配给一个 Map 任务来处理。这些 Map 任务在集群中的不同节点上并行执行,每个节点可能会同时运行多个 Map 任务,从而实现并行处理。
    • 每个 Map 任务都会读取其分配到的数据块,并对数据进行处理。
  2. 映射函数的应用

    • 在 Map 任务中,数据块会经过映射函数(Mapper Function)的处理。映射函数负责将输入数据转换成一组中间键值对(Key-Value Pairs),以便后续的排序和归约操作。
    • 典型的映射函数是对输入数据进行解析和分割,然后提取出关键信息,并将其作为键值对的键(Key)和值(Value)。例如,在 Word Count 示例中,映射函数会将每个单词作为键,出现次数作为值。
  3. 中间键值对的生成

    • 映射函数生成的中间键值对通常会被写入临时存储,比如内存或磁盘中的缓冲区。这些中间结果将在后续的排序和归约阶段被用到。
    • 为了减少数据写入的开销,通常会使用缓冲区来暂存中间结果,并在缓冲区达到一定大小或者映射任务完成时才进行写入操作。
  4. 并行性与负载均衡

    • 映射阶段的并行性取决于数据块的切分粒度集群中可用的节点资源。如果数据块切分得足够细致,并且集群中有足够的节点可用,那么可以实现高度的并行处理。
    • 此外,为了保证作业的性能和效率,系统会尽可能地保持 Map 任务的负载均衡,即使在数据分布不均匀的情况下也能够尽量平均地分配任务。
  5. 错误处理与容错机制

    • 在映射阶段,系统还会监控和处理可能出现的错误和异常情况,以确保作业的顺利执行。例如,如果某个 Map 任务失败或超时,系统会重新调度任务或将任务分配给其他可用节点执行,以保证作业的正常进行。
    • 此外,系统还会记录和监控任务执行的日志信息,以便于后续的故障排查和性能优化。

通过映射阶段的处理,我们能够将输入数据转换成一组中间键值对,并通过并行处理实现高效的数据处理和转换。这为后续的排序和归约阶段提供了基础,从而实现了整个 MapReduce 作业的并行化和分布式处理。


3. 分组和排序阶段(Shuffling and Sorting

分组和排序阶段(Shuffling and Sorting Stage)是在映射阶段之后,在归约阶段之前的重要步骤。这个阶段主要负责将映射阶段产生的中间键值对按照键进行分组,并对每组中的键值对进行排序。这样做的目的是为了将具有相同键的键值对聚集到一起,以便后续的归约阶段能够更高效地进行处理。

  • 在映射阶段完成后,所有的键值对会被按照键进行排序,并根据键的哈希值分组
  • 这个过程确保了具有相同键的键值对会被发送到同一个 Reduce 任务中,以便进行后续的处理。
  • 分组和排序通常是在内存中进行的,如果内存不足,会将部分数据写入磁盘进行临时存储。
  1. 数据分组

    • 在分组阶段,MapReduce 框架会将中间键值对按照进行分组。具有相同键的键值对会被聚集到同一个分组中。
    • 这一步是为了确保在后续的归约阶段中,具有相同键的键值对会被发送到同一个归约任务进行处理。这样可以避免在网络传输过程中产生大量的数据移动和混乱。
  2. 数据排序

    • 分组之后,每个分组内的键值对会按照键的顺序进行排序。通常情况下,会使用稳定的排序算法(如归并排序)来对键值对进行排序。
    • 排序的目的是为了确保在后续的归约阶段中,具有相同键的键值对能够按照顺序进行处理。这样可以简化归约任务的逻辑,并提高整个作业的性能和效率。
  3. 网络传输

    • 在分组和排序阶段,可能涉及大量的数据传输和网络通信。因为具有相同键的键值对需要被发送到同一个归约任务进行处理,所以可能需要跨越不同的节点进行数据传输。
    • 为了提高性能和减少网络开销,MapReduce 框架通常会采取一些优化策略,如合并相邻的分组和批量传输数据等。
  4. 容错处理

    • 在分组和排序阶段,MapReduce 框架需要处理可能出现的错误和异常情况,如节点故障、网络超时等。系统会采取一些容错机制来处理这些问题,比如重新调度任务或重新传输数据。

通过分组和排序阶段的处理,MapReduce 可以将映射阶段产生的中间结果按照键进行分组和排序,为后续的归约阶段提供了有序的数据流。这样一来,归约任务就可以更高效地处理数据,从而提高整个作业的性能和效率。


4. 归约阶段(Reducing

归约阶段(Reducing Stage)是 MapReduce 模型中的最后一个阶段,用于对分组和排序阶段产生的中间结果进行归约操作。在归约阶段,具有相同键的键值对会被发送到同一个归约任务进行合并和处理。

  • 每个 Reduce 任务处理一个键及其对应的一组值。
  • Reduce 任务对这组值进行处理,并生成最终的结果。
  • 这个阶段通常涉及对值的聚合、汇总或其他计算操作,如求和、平均值、最大值、最小值等。
  1. 任务分配

    • 在归约阶段,MapReduce 框架会根据中间键值对的键,将具有相同键的键值对发送到同一个归约任务进行处理。这样可以确保具有相同键的键值对被聚合到同一个任务中进行归约操作。
    • 归约任务通常会在不同的节点上并行执行,每个节点可能会同时运行多个归约任务,以实现高效的数据处理。
  2. 归约函数的应用

    • 在归约阶段,每个归约任务会使用归约函数(Reducer Function)对具有相同键的键值对进行合并和处理。归约函数的主要作用是将相同键的多个值合并成一个或多个更终结果。
    • 归约函数可以根据具体的需求来定义,常见的归约操作包括求和、计数、取最大/最小值等。
  3. 局部归约

    • 了提高性能和减少数据传输开销,通常会在归约阶段进行局部归约操作。局部归约指的是在归约任务接收到中间结果之后,先对部分数据进行归约操作,然后再将结果发送到其他归约任务进行最终的合并。
    • 局部归约可以减少数据在网络上传输的数量和距离,从而提高整个作业的性能和效率。
  4. 结果输出

    • 归约任务处理完所有的中间结果后,会生成最终的归约结果。这些结果通常会被写入到输出文件或存储系统中,以供后续的数据分析或其他应用程序使用。
    • 输出的格式可以根据具体的需求来定义,常见的格式包括文本文件、序列文件、数据库等。
  5. 容错处理

    • 在归约阶段,可能会出现一些错误和异常情况,如节点故障、数据丢失等。MapReduce 框架会采取一些容错机制来处理这些问题,例如重新调度任务、重新执行任务或重新传输数据。

通过归约阶段的处理,MapReduce 可以将具有相同键的键值对进行合并和处理,生成最终的归约结果。这样一来,MapReduce 可以处理大规模数据并实现并行化和分布式处理,从而提高作业的性能和效率。


5. 输出阶段(Output

输出阶段(Output Stage)是 MapReduce 模型中的最后一个阶段,在归约阶段之后,负责将最终的归约结果写入到输出文件或存储系统中。在这个阶段,MapReduce 作业将生成的结果提供给用户或其他应用程序使用。

  1. 结果整理

    • 在归约阶段完成后,每个归约任务会生成一部分最终结果。在输出阶段之前,这些结果可能需要被进一步整理和合并,以确保最终的输出数据格式符合用户的需求。
    • 整理的过程可能包括对结果进行排序、去重、格式转换等操作,以满足用户的要求或系统的规范。
  2. 结果写入

    • 一旦结果被整理和准备好,MapReduce 框架就会将最终的归约结果写入到输出文件或存储系统中。这些输出文件可以存储在分布式文件系统(如HDFS)中,也可以写入到数据库、对象存储或其他类型的数据存储系统中。
    • 输出文件通常会根据用户指定的格式进行写入,例如文本文件、序列文件、Avro 文件等。
  3. 结果分发

    • 在某些情况下,输出结果可能需要被分发到多个节点或多个存储系统中,以供后续的数据处理或分析使用。MapReduce 框架会负责将结果分发到指定的位置,并确保数据的完整性和一致性。
    • 结果分发的过程可能涉及网络传输和数据复制,因此通常会考虑系统的性能和可靠性。
  4. 结果检验

    • 输出阶段完成后,通常会对生成的结果进行检验和验证,以确保数据的准确性和完整性。这可能包括对数据进行抽样、统计分析或与预期结果进行比对等操作。
    • 结果检验的目的是确保作业执行的正确性,并及时发现和解决可能存在的问题或异常。
  5. 清理资源

    • 最后,一旦输出阶段完成并且结果被成功写入到目标位置,MapReduce 框架会进行一些清理工作,例如释放资源、关闭临时文件等。这样可以确保系统资源得到有效利用,同时保持系统的稳定性和可靠性。

通过输出阶段的处理,MapReduce 作业可以生成最终的结果,并将其提供给用户或其他应用程序使用。这些结果可以用于进一步的数据分析、决策支持或其他业务应用,从而实现大规模数据处理和分析的目标。

这篇关于MapReduce工作流程(Hadoop3.x)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/913857

相关文章

Security OAuth2 单点登录流程

单点登录(英语:Single sign-on,缩写为 SSO),又译为单一签入,一种对于许多相互关连,但是又是各自独立的软件系统,提供访问控制的属性。当拥有这项属性时,当用户登录时,就可以获取所有系统的访问权限,不用对每个单一系统都逐一登录。这项功能通常是以轻型目录访问协议(LDAP)来实现,在服务器上会将用户信息存储到LDAP数据库中。相同的,单一注销(single sign-off)就是指

Spring Security基于数据库验证流程详解

Spring Security 校验流程图 相关解释说明(认真看哦) AbstractAuthenticationProcessingFilter 抽象类 /*** 调用 #requiresAuthentication(HttpServletRequest, HttpServletResponse) 决定是否需要进行验证操作。* 如果需要验证,则会调用 #attemptAuthentica

工作常用指令与快捷键

Git提交代码 git fetch  git add .  git commit -m “desc”  git pull  git push Git查看当前分支 git symbolic-ref --short -q HEAD Git创建新的分支并切换 git checkout -b XXXXXXXXXXXXXX git push origin XXXXXXXXXXXXXX

嵌入式方向的毕业生,找工作很迷茫

一个应届硕士生的问题: 虽然我明白想成为技术大牛需要日积月累的磨练,但我总感觉自己学习方法或者哪些方面有问题,时间一天天过去,自己也每天不停学习,但总感觉自己没有想象中那样进步,总感觉找不到一个很清晰的学习规划……眼看 9 月份就要参加秋招了,我想毕业了去大城市磨练几年,涨涨见识,拓开眼界多学点东西。但是感觉自己的实力还是很不够,内心慌得不行,总怕浪费了这人生唯一的校招机会,当然我也明白,毕业

kubelet组件的启动流程源码分析

概述 摘要: 本文将总结kubelet的作用以及原理,在有一定基础认识的前提下,通过阅读kubelet源码,对kubelet组件的启动流程进行分析。 正文 kubelet的作用 这里对kubelet的作用做一个简单总结。 节点管理 节点的注册 节点状态更新 容器管理(pod生命周期管理) 监听apiserver的容器事件 容器的创建、删除(CRI) 容器的网络的创建与删除

husky 工具配置代码检查工作流:提交代码至仓库前做代码检查

提示:这篇博客以我前两篇博客作为先修知识,请大家先去看看我前两篇博客 博客指路:前端 ESlint 代码规范及修复代码规范错误-CSDN博客前端 Vue3 项目开发—— ESLint & prettier 配置代码风格-CSDN博客 husky 工具配置代码检查工作流的作用 在工作中,我们经常需要将写好的代码提交至代码仓库 但是由于程序员疏忽而将不规范的代码提交至仓库,显然是不合理的 所

火语言RPA流程组件介绍--浏览网页

🚩【组件功能】:浏览器打开指定网址或本地html文件 配置预览 配置说明 网址URL 支持T或# 默认FLOW输入项 输入需要打开的网址URL 超时时间 支持T或# 打开网页超时时间 执行后后等待时间(ms) 支持T或# 当前组件执行完成后继续等待的时间 UserAgent 支持T或# User Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器

未来工作趋势:零工小程序在共享经济中的作用

经济在不断发展的同时,科技也在飞速发展。零工经济作为一种新兴的工作模式,正在全球范围内迅速崛起。特别是在中国,随着数字经济的蓬勃发展和共享经济模式的深入推广,零工小程序在促进就业、提升资源利用效率方面显示出了巨大的潜力和价值。 一、零工经济的定义及现状 零工经济是指通过临时性、自由职业或项目制的工作形式,利用互联网平台快速匹配供需双方的新型经济模式。这种模式打破了传统全职工作的界限,为劳动

Smarty模板引擎工作机制(一)

深入浅出Smarty模板引擎工作机制,我们将对比使用smarty模板引擎和没使用smarty模板引擎的两种开发方式的区别,并动手开发一个自己的模板引擎,以便加深对smarty模板引擎工作机制的理解。 在没有使用Smarty模板引擎的情况下,我们都是将PHP程序和网页模板合在一起编辑的,好比下面的源代码: <?php$title="深处浅出之Smarty模板引擎工作机制";$content=

3.比 HTTP 更安全的 HTTPS(工作原理理解、非对称加密理解、证书理解)

所谓的协议 协议只是一种规则,你不按规则来就无法和目标方进行你的工作 协议说白了只是人定的规则,任何人都可以定协议 我们不需要太了解细节,这些制定和完善协议的人去做的,我们只需要知道协议的一个大概 HTTPS 协议 1、概述 HTTPS(Hypertext Transfer Protocol Secure)是一种安全的超文本传输协议,主要用于在客户端和服务器之间安全地传输数据