reducer里aggregate函数的使用

2024-04-02 21:18

本文主要是介绍reducer里aggregate函数的使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.streaming的作用

Haoop支持用其他语言来编程,需要用到名为Streaming的通用API。

Streaming主要用于编写简单,短小的MapReduce程序,可以通过脚本语言编程,开发更快捷,并充分利用非Java库。

HadoopStreaming使用Unix中的流与程序交互,从stdin输入数据,从stdout输出数据。实际上可以用任何命令作为mapper和reducer。数据流示意如下:

cat [intput_file] | [mapper] | sort | [reducer] > [output_file]

2.使用方法

使用如下命令:

hadoop jar contrib/streaming/hadoop-streaming-0.20.203.0.jar \

        >-input cite75_99.txt  \> -output output  \>-mapper 'cut -f 2 -d ,'  \>-reducer 'uniq'

第一行表示使用的StreamingAPI,位于图中位置得jar包中

-input和 -output参数用于设置输入输出文件或目录

-mapper和-reducer通过引号中得参数进行设定,分别进行了截取第二列数据,

uniq进行了排序去重。

注意:每行是完全按照字母方式排序,因为Streaming完全采用文本方式处理数据,而不知道其他得数据类型。输出结果如下:

kqiao@ubuntu:~/hadoop-0.20.203.0$ hadoop fs -cat outputStreaming/part-00000 | head -10
“CITED”
1
10000
100000
1000006
1000007
1000011
1000017
1000026
1000033

……

3.用Streaming处理键值对

默认情况下,Streaming使用\t分离记录中得键和值,当没有\t时,整个记录被视为键,值为空白文本。

不同于AttributeMax.py为每个键寻找最大值,这次我们试着为每个国家找到专利声明数的平均值。(Hadoop包含得名为Aggregate包,可以为每个键寻找最大值)

(1)Streaming中得mapper通过STDIN读取一个 分片,并将每一行提取为一个记录。Mapper可以选择是把每条记录翻译为一个键值对,还是一行文本

        此步从 输入文件到<k1,v1>

(2) 对于mapper输出的每一行,Streaming API将之翻译为用\t分隔的键值对,类似于MapReduce中的划分,可以用pationer来处理键。最终所有键一致的key/value进入相同reducer。

(3)没个reducer以键为基准排序键值对,如同在Java模式中, 相同键的键值对被结组为一个键和一列值。reducer处理这些分组。

(4)在实践中,reducer的输出(STDOUT)被写入到一个文件中(由-output指定)

对AverageByAttributeMaper.py:

<<<<<<<<<<<<<<<<<<>>>>>>>>>>>>>>>>>>

无reducer方式运行时:-D mapred.reducer.tasks=0输出由行组成:一个国家代码  \t   一个计数值      ,           并且其顺序与输入记录一致以IdentityReducer方式运行,设置-D mapred.reducer.tasks=1(这种方式只要不设置-reducer选项即可)

执行结束可以看到 虽然每行的内容与上一个相同,但是顺序被重排,键相同的“结组”在一起。可以根据这些信息考虑自己的reducer设计:

AverageByAttributeReducer.py——将相同键的值求和计数,在遇到新的键或到文件尾时,计算前一个键的平均值并输出到STDOUT中。

<<<<<<<<<<<<<<<<<<<<<>>>>>>>>>>>>>>>>>>>>>>>>>>>>>

这时可以运行完整的MapReduce作业。会得到真正的平均值文件。

4.通过Aggregate包使用Streaming

Hadoop有一个成为Aggregate软件包,极大简化数据集的汇总统计。尤其在使用Streaming时。

在Streaming中Aggregate包作为Reducer做聚集统计,只需提供一个mapper处理记录并以特定格式输出。输出每行如下:

function:key\tvalue

function为值聚合函数的名称(由Aggregate包中预定义函数获得),接着一组 键值对,值聚合函数列表如下:

如果要计算每年授权的专利数,考虑编写MapReduce程序的方法:

可以使mapper的输出将年设置为key,而value的值恒为1。这样reducer只需要对所有的1求和即可。使用基于Aggregate包的Streaming来实现:AttributeCount.py
1
2
3
4
5
6

#!/usr/bin/env python
import sys
index = int(sys.argv[1])
for line in sys.stdin:fields = line.split(",")print "LongValueSum:" + fields[index] + "\t" + "1"

关键语句:print “LongValueSum:” + fields[index] + “\t” + “1”。。按指定格式( function:key\tvalue) 打印到输出!

运行如下:
1
2
3
4
5
6

hadoop jar contrib/streaming/hadoop-streaming-0.20.203.jar  \
-file  AttributeCount.py    \
-input  apat63_99.txt    \
-output  output   \
-mapper 'AttributeCount.py 1'   \
-reducer aggregate

这篇关于reducer里aggregate函数的使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/871079

相关文章

java图像识别工具类(ImageRecognitionUtils)使用实例详解

《java图像识别工具类(ImageRecognitionUtils)使用实例详解》:本文主要介绍如何在Java中使用OpenCV进行图像识别,包括图像加载、预处理、分类、人脸检测和特征提取等步骤... 目录前言1. 图像识别的背景与作用2. 设计目标3. 项目依赖4. 设计与实现 ImageRecogni

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

Mysql虚拟列的使用场景

《Mysql虚拟列的使用场景》MySQL虚拟列是一种在查询时动态生成的特殊列,它不占用存储空间,可以提高查询效率和数据处理便利性,本文给大家介绍Mysql虚拟列的相关知识,感兴趣的朋友一起看看吧... 目录1. 介绍mysql虚拟列1.1 定义和作用1.2 虚拟列与普通列的区别2. MySQL虚拟列的类型2

使用MongoDB进行数据存储的操作流程

《使用MongoDB进行数据存储的操作流程》在现代应用开发中,数据存储是一个至关重要的部分,随着数据量的增大和复杂性的增加,传统的关系型数据库有时难以应对高并发和大数据量的处理需求,MongoDB作为... 目录什么是MongoDB?MongoDB的优势使用MongoDB进行数据存储1. 安装MongoDB

关于@MapperScan和@ComponentScan的使用问题

《关于@MapperScan和@ComponentScan的使用问题》文章介绍了在使用`@MapperScan`和`@ComponentScan`时可能会遇到的包扫描冲突问题,并提供了解决方法,同时,... 目录@MapperScan和@ComponentScan的使用问题报错如下原因解决办法课外拓展总结@

mysql数据库分区的使用

《mysql数据库分区的使用》MySQL分区技术通过将大表分割成多个较小片段,提高查询性能、管理效率和数据存储效率,本文就来介绍一下mysql数据库分区的使用,感兴趣的可以了解一下... 目录【一】分区的基本概念【1】物理存储与逻辑分割【2】查询性能提升【3】数据管理与维护【4】扩展性与并行处理【二】分区的

使用Python实现在Word中添加或删除超链接

《使用Python实现在Word中添加或删除超链接》在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能,本文将为大家介绍一下Python如何实现在Word中添加或... 在Word文档中,超链接是一种将文本或图像连接到其他文档、网页或同一文档中不同部分的功能。通过添加超

Linux使用fdisk进行磁盘的相关操作

《Linux使用fdisk进行磁盘的相关操作》fdisk命令是Linux中用于管理磁盘分区的强大文本实用程序,这篇文章主要为大家详细介绍了如何使用fdisk进行磁盘的相关操作,需要的可以了解下... 目录简介基本语法示例用法列出所有分区查看指定磁盘的区分管理指定的磁盘进入交互式模式创建一个新的分区删除一个存

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

SpringBoot使用Apache Tika检测敏感信息

《SpringBoot使用ApacheTika检测敏感信息》ApacheTika是一个功能强大的内容分析工具,它能够从多种文件格式中提取文本、元数据以及其他结构化信息,下面我们来看看如何使用Ap... 目录Tika 主要特性1. 多格式支持2. 自动文件类型检测3. 文本和元数据提取4. 支持 OCR(光学