本文主要是介绍hadoop 自带示例wordcount 详细运行步骤,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
因为机器学习,接触到了数据挖掘;因为数据挖掘,接触到了大数据;因为大数据,接触到了Hadoop。之前有过hadoop的简单了解,但都是基于别人提供的hadoop来学习和使用,虽然也很好用 ,终究不如自己的使用起来方便 。经过这两天参考大量网上的经验,终于成功的搭建了自己的hadoop完全分布式环境。现在我把所有的安装思路、安装过程中的截图以及对待错误的经验总结出来,相信安装这个思路去做,hadoop安装就不再是一件困难的事。
我自己是搭建的完全分布式的hadoop,就涉及到了创建若干个虚拟机并使它们能够互通。所以我整个hadoop安装能够分为三个独立的部分:1、linux 虚拟机详细搭建过程;2、hadoop完全分布式集群安装;3、hadoop 自带示例wordcount 的具体运行步骤。本文介绍第三部分。(我们在做本节内容的基础是Hadoop已经启动)
单词计数是最简单也是最能体现MapReduce思想的程序之一,可以称为MapReduce版”Hello World”,该程序的完整代码可以在Hadoop安装包的”src/examples”目录下找到。单词计数主要完成功能是:统计一系列文本文件中每个单词出现的次数,如下图所示。
1.创建本地示例文件
在”/usr/hadoop”目录下创建文件夹”file”。
接着创建两个文本文件file1.txt和file2.txt,使file1.txt内容为”Hello World”,而file2.txt的内容为”Hello Hadoop”和“hello mapreduce”(两行)。
2.在HDFS上创建输入文件夹
bin/hadoop fs -mkdir hdfsinput
意思是在HDFS远程创建一个输入目录,我们以后的文件需要上载到这个目录里面才能执行。
3.上传本地file中文件到集群的hdfsinput目录下
bin/hadoop fs -put /usr/haodop/file/file*.txt hdfsinput
4.运行Hadoop 自带示例wordcount
bin/hadoop jar /usr/hadoop/hadoop-examples-1.2.1.jar wordcount hdfsinput hdfsoutput
以上三步的操作截图如下
- 这里的示例程序是1.2.1版本的,输入命令时先查一下具体版本。地址就是/usr/hadoop/
- 再次运行时一定要先将前一次运行的输出文件夹删除
运行完之后的输出结果:
查看结果
bin/hadoop fs -ls hdfsoutput
从上图中知道生成了三个文件,我们的结果在”part-r-00000”中。
bin/hadoop fs -cat hdfsoutput/part-r-00000
5.参考文献
- http://www.cnblogs.com/xia520pi/archive/2012/05/16/2504205.html
- http://www.cnblogs.com/xuepei/p/3599202.html
- http://www.cnblogs.com/madyina/p/3708153.html
这篇关于hadoop 自带示例wordcount 详细运行步骤的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!