使用32位的hadoop运行在64位的系统上,将会出现一些库不兼容的异常

2024-03-18 19:58

本文主要是介绍使用32位的hadoop运行在64位的系统上,将会出现一些库不兼容的异常,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

hadoop2.x在apache官网直接下载的并没有64位直接能用的版本,如果我们想在64位系统使用,那么就需要重新编译hadoop,否则直接使用32位的hadoop运行在64位的系统上,将会出现一些库不兼容的异常。如下图所示,最直接的一个异常:



 

在这之前,散仙先用一个表格来描述下散仙的编译的环境的状况:

序号描述备注1centos6.5系统64位linux环境2Apache Ant1.9ant编译3Apache Maven3.2.1maven打包部署4gcc,gcc-c++,make依赖库5protobuf-2.5.0序列化库6JDK1.7JAVA 环境7Hadoop2.2.0源码包官网下载8屌丝工程师一名主角9hadoop交流群376932160技术交流






下面进入正题,散仙的环境是在centos下,所以大部分安装编译依赖库,都可以很方便的使用yum命令来完成。

1,安装gcc,执行如下的几个yum命令即可



Java代码 复制代码  收藏代码
  1. yum -y install gcc  
  2. yum install -y  bzip2-devel  
  3. yum -y install gcc-c++  
  4. yum install make  
  5. yum install autoconf automake libtool cmake ncurses-devel openssl-devel gcc*  
yum -y install gcc
yum install -y  bzip2-devel
yum -y install gcc-c++
yum install make
yum install autoconf automake libtool cmake ncurses-devel openssl-devel gcc*



2,安装JDK,并设置环境变量,完成后测试安装成功否

Java代码 复制代码  收藏代码
  1. [root@ganglia ~]# java -version  
  2. java version "1.5.0"  
  3. gij (GNU libgcj) version 4.4.7 20120313 (Red Hat 4.4.7-4)  
  4.   
  5. Copyright (C) 2007 Free Software Foundation, Inc.  
  6. This is free software; see the source for copying conditions.  There is NO  
  7. warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  
  8. [root@ganglia ~]#   
[root@ganglia ~]# java -version
java version "1.5.0"
gij (GNU libgcj) version 4.4.7 20120313 (Red Hat 4.4.7-4)Copyright (C) 2007 Free Software Foundation, Inc.
This is free software; see the source for copying conditions.  There is NO
warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
[root@ganglia ~]# 


3, 安装Maven,安装完成后测试安装与否

Java代码 复制代码  收藏代码
  1. [root@ganglia ~]# mvn -v  
  2. Apache Maven 3.2.1 (ea8b2b07643dbb1b84b6d16e1f08391b666bc1e9; 2014-02-15T01:37:52+08:00)  
  3. Maven home: /usr/local/maven  
  4. Java version: 1.7.0_25, vendor: Oracle Corporation  
  5. Java home: /usr/local/jdk1.7.0_25/jre  
  6. Default locale: zh_CN, platform encoding: UTF-8  
  7. OS name: "linux", version: "2.6.32-431.el6.x86_64", arch: "amd64", family: "unix"  
  8. [root@ganglia ~]#   
[root@ganglia ~]# mvn -v
Apache Maven 3.2.1 (ea8b2b07643dbb1b84b6d16e1f08391b666bc1e9; 2014-02-15T01:37:52+08:00)
Maven home: /usr/local/maven
Java version: 1.7.0_25, vendor: Oracle Corporation
Java home: /usr/local/jdk1.7.0_25/jre
Default locale: zh_CN, platform encoding: UTF-8
OS name: "linux", version: "2.6.32-431.el6.x86_64", arch: "amd64", family: "unix"
[root@ganglia ~]# 


4, 安装Ant, 安装完成后,依旧测试成功与否

Java代码 复制代码  收藏代码
  1. [root@ganglia ~]# ant -version  
  2. Apache Ant(TM) version 1.9.4 compiled on April 29 2014  
  3. [root@ganglia ~]#   
[root@ganglia ~]# ant -version
Apache Ant(TM) version 1.9.4 compiled on April 29 2014
[root@ganglia ~]# 


5,安装protobuf,安装方式,从官网下载tar.gz的包点击下载,并上传到linux上解压,然后进入根目录下,执行如下的几个命令:
wget https://protobuf.googlecode.com/files/protobuf-2.5.0.tar.bz2

Java代码 复制代码  收藏代码
  1. ./configure   
  2. make   
  3. make check  
  4. make install  
./configure 
make 
make check
make install


然后,执行如下命令,进行测试安装成功与否

Java代码 复制代码  收藏代码
  1. [root@ganglia protobuf-2.5.0]# protoc  
  2. Missing input file.  
  3. [root@ganglia protobuf-2.5.0]#   
[root@ganglia protobuf-2.5.0]# protoc
Missing input file.
[root@ganglia protobuf-2.5.0]# 



6,从hadoop官网下载hadoop2.2.0的版本的源码的src的包,并查看目录

Java代码 复制代码  收藏代码
  1. [root@ganglia ~]# cd hadoop-2.2.0-src  
  2. [root@ganglia hadoop-2.2.0-src]# ll  
  3. 总用量 108  
  4. -rw-r--r--.  1 67974 users  9968 10月  7 2013 BUILDING.txt  
  5. drwxr-xr-x.  2 67974 users  4096 10月  7 2013 dev-support  
  6. drwxr-xr-x.  4 67974 users  4096 6月   9 17:05 hadoop-assemblies  
  7. drwxr-xr-x.  3 67974 users  4096 6月   9 17:27 hadoop-client  
  8. drwxr-xr-x.  9 67974 users  4096 6月   9 17:14 hadoop-common-project  
  9. drwxr-xr-x.  3 67974 users  4096 6月   9 17:26 hadoop-dist  
  10. drwxr-xr-x.  7 67974 users  4096 6月   9 17:20 hadoop-hdfs-project  
  11. drwxr-xr-x. 11 67974 users  4096 6月   9 17:25 hadoop-mapreduce-project  
  12. drwxr-xr-x.  4 67974 users  4096 6月   9 17:06 hadoop-maven-plugins  
  13. drwxr-xr-x.  3 67974 users  4096 6月   9 17:27 hadoop-minicluster  
  14. drwxr-xr-x.  4 67974 users  4096 6月   9 17:03 hadoop-project  
  15. drwxr-xr-x.  3 67974 users  4096 6月   9 17:05 hadoop-project-dist  
  16. drwxr-xr-x. 12 67974 users  4096 6月   9 17:26 hadoop-tools  
  17. drwxr-xr-x.  4 67974 users  4096 6月   9 17:24 hadoop-yarn-project  
  18. -rw-r--r--.  1 67974 users 15164 10月  7 2013 LICENSE.txt  
  19. -rw-r--r--.  1 67974 users   101 10月  7 2013 NOTICE.txt  
  20. -rw-r--r--.  1 67974 users 16569 10月  7 2013 pom.xml  
  21. -rw-r--r--.  1 67974 users  1366 10月  7 2013 README.txt  
  22. [root@ganglia hadoop-2.2.0-src]#   
[root@ganglia ~]# cd hadoop-2.2.0-src
[root@ganglia hadoop-2.2.0-src]# ll
总用量 108
-rw-r--r--.  1 67974 users  9968 10月  7 2013 BUILDING.txt
drwxr-xr-x.  2 67974 users  4096 10月  7 2013 dev-support
drwxr-xr-x.  4 67974 users  4096 6月   9 17:05 hadoop-assemblies
drwxr-xr-x.  3 67974 users  4096 6月   9 17:27 hadoop-client
drwxr-xr-x.  9 67974 users  4096 6月   9 17:14 hadoop-common-project
drwxr-xr-x.  3 67974 users  4096 6月   9 17:26 hadoop-dist
drwxr-xr-x.  7 67974 users  4096 6月   9 17:20 hadoop-hdfs-project
drwxr-xr-x. 11 67974 users  4096 6月   9 17:25 hadoop-mapreduce-project
drwxr-xr-x.  4 67974 users  4096 6月   9 17:06 hadoop-maven-plugins
drwxr-xr-x.  3 67974 users  4096 6月   9 17:27 hadoop-minicluster
drwxr-xr-x.  4 67974 users  4096 6月   9 17:03 hadoop-project
drwxr-xr-x.  3 67974 users  4096 6月   9 17:05 hadoop-project-dist
drwxr-xr-x. 12 67974 users  4096 6月   9 17:26 hadoop-tools
drwxr-xr-x.  4 67974 users  4096 6月   9 17:24 hadoop-yarn-project
-rw-r--r--.  1 67974 users 15164 10月  7 2013 LICENSE.txt
-rw-r--r--.  1 67974 users   101 10月  7 2013 NOTICE.txt
-rw-r--r--.  1 67974 users 16569 10月  7 2013 pom.xml
-rw-r--r--.  1 67974 users  1366 10月  7 2013 README.txt
[root@ganglia hadoop-2.2.0-src]# 



7,修改/root/hadoop-2.2.0-src/hadoop-common-project/hadoop-auth/pom.xml文件,增加,补丁内容,这部分是hadoop2.2.0的bug,如果是其他的2.x的版本,可以视情况而定,内容如下:

Xml代码 复制代码  收藏代码
  1.  <dependency>  
  2.      <groupId>org.mockito</groupId>  
  3.      <artifactId>mockito-all</artifactId>  
  4.      <scope>test</scope>  
  5.    </dependency>  
  6. <!--新增的内容开始 -->  
  7. <dependency>  
  8.     <groupId>org.mortbay.jetty</groupId>  
  9.         <artifactId>jetty-util</artifactId>  
  10.         <scope>test</scope>  
  11. </dependency>  
  12. <!--新增的内容结束 -->  
  13.    <dependency>  
  14.      <groupId>org.mortbay.jetty</groupId>  
  15.      <artifactId>jetty</artifactId>  
  16.      <scope>test</scope>  
  17.    </dependency>  
  <dependency><groupId>org.mockito</groupId><artifactId>mockito-all</artifactId><scope>test</scope></dependency><!--新增的内容开始 --><dependency><groupId>org.mortbay.jetty</groupId><artifactId>jetty-util</artifactId><scope>test</scope></dependency><!--新增的内容结束 --><dependency><groupId>org.mortbay.jetty</groupId><artifactId>jetty</artifactId><scope>test</scope></dependency>



8,修改完毕后,回到hadoop-2.2.0-src的跟目录下执行编译打包命令:

Java代码 复制代码  收藏代码
  1. mvn clean  
  2. mvn package -Pdist,native -DskipTests -Dtar  
mvn clean
mvn package -Pdist,native -DskipTests -Dtar


然后等待半个小时左右的编译时间,网速快的话,时间可能会更短,编译完成后,输出的打包信息如下:

Java代码 复制代码  收藏代码
  1. [INFO]   
  2. [INFO] --- maven-resources-plugin:2.2:resources (default-resources) @ hadoop-minicluster ---  
  3. [INFO] Using default encoding to copy filtered resources.  
  4. [INFO]   
  5. [INFO] --- maven-compiler-plugin:2.5.1:compile (default-compile) @ hadoop-minicluster ---  
  6. [INFO] No sources to compile  
  7. [INFO]   
  8. [INFO] --- maven-resources-plugin:2.2:testResources (default-testResources) @ hadoop-minicluster ---  
  9. [INFO] Using default encoding to copy filtered resources.  
  10. [INFO]   
  11. [INFO] --- maven-compiler-plugin:2.5.1:testCompile (default-testCompile) @ hadoop-minicluster ---  
  12. [INFO] No sources to compile  
  13. [INFO]   
  14. [INFO] --- maven-surefire-plugin:2.12.3:test (default-test) @ hadoop-minicluster ---  
  15. [INFO] Tests are skipped.  
  16. [INFO]   
  17. [INFO] --- maven-jar-plugin:2.3.1:jar (default-jar) @ hadoop-minicluster ---  
  18. [WARNING] JAR will be empty - no content was marked for inclusion!  
  19. [INFO] Building jar: /root/hadoop-2.2.0-src/hadoop-minicluster/target/hadoop-minicluster-2.2.0.jar  
  20. [INFO]   
  21. [INFO] --- maven-source-plugin:2.1.2:jar-no-fork (hadoop-java-sources) @ hadoop-minicluster ---  
  22. [INFO] No sources in project. Archive not created.  
  23. [INFO]   
  24. [INFO] --- maven-source-plugin:2.1.2:test-jar-no-fork (hadoop-java-sources) @ hadoop-minicluster ---  
  25. [INFO] No sources in project. Archive not created.  
  26. [INFO]   
  27. [INFO] --- maven-site-plugin:3.0:attach-descriptor (attach-descriptor) @ hadoop-minicluster ---  
  28. [INFO]   
  29. [INFO] --- maven-javadoc-plugin:2.8.1:jar (module-javadocs) @ hadoop-minicluster ---  
  30. [INFO] Building jar: /root/hadoop-2.2.0-src/hadoop-minicluster/target/hadoop-minicluster-2.2.0-javadoc.jar  
  31. [INFO] ------------------------------------------------------------------------  
  32. [INFO] Reactor Summary:  
  33. [INFO]   
  34. [INFO] Apache Hadoop Main ................................ SUCCESS [01:43 min]  
  35. [INFO] Apache Hadoop Project POM ......................... SUCCESS [01:21 min]  
  36. [INFO] Apache Hadoop Annotations ......................... SUCCESS [ 42.256 s]  
  37. [INFO] Apache Hadoop Assemblies .......................... SUCCESS [  0.291 s]  
  38. [INFO] Apache Hadoop Project Dist POM .................... SUCCESS [ 41.053 s]  
  39. [INFO] Apache Hadoop Maven Plugins ....................... SUCCESS [ 44.283 s]  
  40. [INFO] Apache Hadoop Auth ................................ SUCCESS [01:49 min]  
  41. [INFO] Apache Hadoop Auth Examples ....................... SUCCESS [ 18.950 s]  
  42. [INFO] Apache Hadoop Common .............................. SUCCESS [05:31 min]  
  43. [INFO] Apache Hadoop NFS ................................. SUCCESS [ 40.498 s]  
  44. [INFO] Apache Hadoop Common Project ...................... SUCCESS [  0.050 s]  
  45. [INFO] Apache Hadoop HDFS ................................ SUCCESS [03:43 min]  
  46. [INFO] Apache Hadoop HttpFS .............................. SUCCESS [ 26.962 s]  
  47. [INFO] Apache Hadoop HDFS BookKeeper Journal ............. SUCCESS [ 47.056 s]  
  48. [INFO] Apache Hadoop HDFS-NFS ............................ SUCCESS [  4.237 s]  
  49. [INFO] Apache Hadoop HDFS Project ........................ SUCCESS [  0.029 s]  
  50. [INFO] hadoop-yarn ....................................... SUCCESS [01:25 min]  
  51. [INFO] hadoop-yarn-api ................................... SUCCESS [ 40.841 s]  
  52. [INFO] hadoop-yarn-common ................................ SUCCESS [ 31.228 s]  
  53. [INFO] hadoop-yarn-server ................................ SUCCESS [  0.161 s]  
  54. [INFO] hadoop-yarn-server-common ......................... SUCCESS [ 12.289 s]  
  55. [INFO] hadoop-yarn-server-nodemanager .................... SUCCESS [ 19.271 s]  
  56. [INFO] hadoop-yarn-server-web-proxy ...................... SUCCESS [  3.586 s]  
  57. [INFO] hadoop-yarn-server-resourcemanager ................ SUCCESS [ 14.674 s]  
  58. [INFO] hadoop-yarn-server-tests .......................... SUCCESS [  1.153 s]  
  59. [INFO] hadoop-yarn-client ................................ SUCCESS [  7.861 s]  
  60. [INFO] hadoop-yarn-applications .......................... SUCCESS [  0.106 s]  
  61. [INFO] hadoop-yarn-applications-distributedshell ......... SUCCESS [  4.540 s]  
  62. [INFO] hadoop-mapreduce-client ........................... SUCCESS [  0.168 s]  
  63. [INFO] hadoop-mapreduce-client-core ...................... SUCCESS [ 29.360 s]  
  64. [INFO] hadoop-yarn-applications-unmanaged-am-launcher .... SUCCESS [  3.353 s]  
  65. [INFO] hadoop-yarn-site .................................. SUCCESS [  0.128 s]  
  66. [INFO] hadoop-yarn-project ............................... SUCCESS [ 29.610 s]  
  67. [INFO] hadoop-mapreduce-client-common .................... SUCCESS [ 19.908 s]  
  68. [INFO] hadoop-mapreduce-client-shuffle ................... SUCCESS [  3.357 s]  
  69. [INFO] hadoop-mapreduce-client-app ....................... SUCCESS [ 12.116 s]  
  70. [INFO] hadoop-mapreduce-client-hs ........................ SUCCESS [  5.807 s]  
  71. [INFO] hadoop-mapreduce-client-jobclient ................. SUCCESS [  6.713 s]  
  72. [INFO] hadoop-mapreduce-client-hs-plugins ................ SUCCESS [  2.001 s]  
  73. [INFO] Apache Hadoop MapReduce Examples .................. SUCCESS [  7.684 s]  
  74. [INFO] hadoop-mapreduce .................................. SUCCESS [  3.664 s]  
  75. [INFO] Apache Hadoop MapReduce Streaming ................. SUCCESS [  5.645 s]  
  76. [INFO] Apache Hadoop Distributed Copy .................... SUCCESS [ 29.953 s]  
  77. [INFO] Apache Hadoop Archives ............................ SUCCESS [  2.277 s]  
  78. [INFO] Apache Hadoop Rumen ............................... SUCCESS [  7.743 s]  
  79. [INFO] Apache Hadoop Gridmix ............................. SUCCESS [  5.608 s]  
  80. [INFO] Apache Hadoop Data Join ........................... SUCCESS [  3.385 s]  
  81. [INFO] Apache Hadoop Extras .............................. SUCCESS [  3.509 s]  
  82. [INFO] Apache Hadoop Pipes ............................... SUCCESS [  8.266 s]  
  83. [INFO] Apache Hadoop Tools Dist .......................... SUCCESS [  2.073 s]  
  84. [INFO] Apache Hadoop Tools ............................... SUCCESS [  0.025 s]  
  85. [INFO] Apache Hadoop Distribution ........................ SUCCESS [ 23.928 s]  
  86. [INFO] Apache Hadoop Client .............................. SUCCESS [  6.876 s]  
  87. [INFO] Apache Hadoop Mini-Cluster ........................ SUCCESS [  0.514 s]  
  88. [INFO] ------------------------------------------------------------------------  
  89. [INFO] BUILD SUCCESS  
  90. [INFO] ------------------------------------------------------------------------  
  91. [INFO] Total time: 26:04 min  
  92. [INFO] Finished at: 2014-06-09T17:27:26+08:00  
  93. [INFO] Final Memory: 96M/239M  
  94. [INFO] ------------------------------------------------------------------------  
[INFO] 
[INFO] --- maven-resources-plugin:2.2:resources (default-resources) @ hadoop-minicluster ---
[INFO] Using default encoding to copy filtered resources.
[INFO] 
[INFO] --- maven-compiler-plugin:2.5.1:compile (default-compile) @ hadoop-minicluster ---
[INFO] No sources to compile
[INFO] 
[INFO] --- maven-resources-plugin:2.2:testResources (default-testResources) @ hadoop-minicluster ---
[INFO] Using default encoding to copy filtered resources.
[INFO] 
[INFO] --- maven-compiler-plugin:2.5.1:testCompile (default-testCompile) @ hadoop-minicluster ---
[INFO] No sources to compile
[INFO] 
[INFO] --- maven-surefire-plugin:2.12.3:test (default-test) @ hadoop-minicluster ---
[INFO] Tests are skipped.
[INFO] 
[INFO] --- maven-jar-plugin:2.3.1:jar (default-jar) @ hadoop-minicluster ---
[WARNING] JAR will be empty - no content was marked for inclusion!
[INFO] Building jar: /root/hadoop-2.2.0-src/hadoop-minicluster/target/hadoop-minicluster-2.2.0.jar
[INFO] 
[INFO] --- maven-source-plugin:2.1.2:jar-no-fork (hadoop-java-sources) @ hadoop-minicluster ---
[INFO] No sources in project. Archive not created.
[INFO] 
[INFO] --- maven-source-plugin:2.1.2:test-jar-no-fork (hadoop-java-sources) @ hadoop-minicluster ---
[INFO] No sources in project. Archive not created.
[INFO] 
[INFO] --- maven-site-plugin:3.0:attach-descriptor (attach-descriptor) @ hadoop-minicluster ---
[INFO] 
[INFO] --- maven-javadoc-plugin:2.8.1:jar (module-javadocs) @ hadoop-minicluster ---
[INFO] Building jar: /root/hadoop-2.2.0-src/hadoop-minicluster/target/hadoop-minicluster-2.2.0-javadoc.jar
[INFO] ------------------------------------------------------------------------
[INFO] Reactor Summary:
[INFO] 
[INFO] Apache Hadoop Main ................................ SUCCESS [01:43 min]
[INFO] Apache Hadoop Project POM ......................... SUCCESS [01:21 min]
[INFO] Apache Hadoop Annotations ......................... SUCCESS [ 42.256 s]
[INFO] Apache Hadoop Assemblies .......................... SUCCESS [  0.291 s]
[INFO] Apache Hadoop Project Dist POM .................... SUCCESS [ 41.053 s]
[INFO] Apache Hadoop Maven Plugins ....................... SUCCESS [ 44.283 s]
[INFO] Apache Hadoop Auth ................................ SUCCESS [01:49 min]
[INFO] Apache Hadoop Auth Examples ....................... SUCCESS [ 18.950 s]
[INFO] Apache Hadoop Common .............................. SUCCESS [05:31 min]
[INFO] Apache Hadoop NFS ................................. SUCCESS [ 40.498 s]
[INFO] Apache Hadoop Common Project ...................... SUCCESS [  0.050 s]
[INFO] Apache Hadoop HDFS ................................ SUCCESS [03:43 min]
[INFO] Apache Hadoop HttpFS .............................. SUCCESS [ 26.962 s]
[INFO] Apache Hadoop HDFS BookKeeper Journal ............. SUCCESS [ 47.056 s]
[INFO] Apache Hadoop HDFS-NFS ............................ SUCCESS [  4.237 s]
[INFO] Apache Hadoop HDFS Project ........................ SUCCESS [  0.029 s]
[INFO] hadoop-yarn ....................................... SUCCESS [01:25 min]
[INFO] hadoop-yarn-api ................................... SUCCESS [ 40.841 s]
[INFO] hadoop-yarn-common ................................ SUCCESS [ 31.228 s]
[INFO] hadoop-yarn-server ................................ SUCCESS [  0.161 s]
[INFO] hadoop-yarn-server-common ......................... SUCCESS [ 12.289 s]
[INFO] hadoop-yarn-server-nodemanager .................... SUCCESS [ 19.271 s]
[INFO] hadoop-yarn-server-web-proxy ...................... SUCCESS [  3.586 s]
[INFO] hadoop-yarn-server-resourcemanager ................ SUCCESS [ 14.674 s]
[INFO] hadoop-yarn-server-tests .......................... SUCCESS [  1.153 s]
[INFO] hadoop-yarn-client ................................ SUCCESS [  7.861 s]
[INFO] hadoop-yarn-applications .......................... SUCCESS [  0.106 s]
[INFO] hadoop-yarn-applications-distributedshell ......... SUCCESS [  4.540 s]
[INFO] hadoop-mapreduce-client ........................... SUCCESS [  0.168 s]
[INFO] hadoop-mapreduce-client-core ...................... SUCCESS [ 29.360 s]
[INFO] hadoop-yarn-applications-unmanaged-am-launcher .... SUCCESS [  3.353 s]
[INFO] hadoop-yarn-site .................................. SUCCESS [  0.128 s]
[INFO] hadoop-yarn-project ............................... SUCCESS [ 29.610 s]
[INFO] hadoop-mapreduce-client-common .................... SUCCESS [ 19.908 s]
[INFO] hadoop-mapreduce-client-shuffle ................... SUCCESS [  3.357 s]
[INFO] hadoop-mapreduce-client-app ....................... SUCCESS [ 12.116 s]
[INFO] hadoop-mapreduce-client-hs ........................ SUCCESS [  5.807 s]
[INFO] hadoop-mapreduce-client-jobclient ................. SUCCESS [  6.713 s]
[INFO] hadoop-mapreduce-client-hs-plugins ................ SUCCESS [  2.001 s]
[INFO] Apache Hadoop MapReduce Examples .................. SUCCESS [  7.684 s]
[INFO] hadoop-mapreduce .................................. SUCCESS [  3.664 s]
[INFO] Apache Hadoop MapReduce Streaming ................. SUCCESS [  5.645 s]
[INFO] Apache Hadoop Distributed Copy .................... SUCCESS [ 29.953 s]
[INFO] Apache Hadoop Archives ............................ SUCCESS [  2.277 s]
[INFO] Apache Hadoop Rumen ............................... SUCCESS [  7.743 s]
[INFO] Apache Hadoop Gridmix ............................. SUCCESS [  5.608 s]
[INFO] Apache Hadoop Data Join ........................... SUCCESS [  3.385 s]
[INFO] Apache Hadoop Extras .............................. SUCCESS [  3.509 s]
[INFO] Apache Hadoop Pipes ............................... SUCCESS [  8.266 s]
[INFO] Apache Hadoop Tools Dist .......................... SUCCESS [  2.073 s]
[INFO] Apache Hadoop Tools ............................... SUCCESS [  0.025 s]
[INFO] Apache Hadoop Distribution ........................ SUCCESS [ 23.928 s]
[INFO] Apache Hadoop Client .............................. SUCCESS [  6.876 s]
[INFO] Apache Hadoop Mini-Cluster ........................ SUCCESS [  0.514 s]
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total time: 26:04 min
[INFO] Finished at: 2014-06-09T17:27:26+08:00
[INFO] Final Memory: 96M/239M
[INFO] ------------------------------------------------------------------------



编译好的hadoop包,路径在:

Java代码 复制代码  收藏代码
  1. [root@ganglia target]# pwd  
  2. /root/hadoop-2.2.0-src/hadoop-dist/target  
  3. [root@ganglia target]# ll  
  4. 总用量 282348  
  5. drwxr-xr-x. 2 root root      4096 6月   9 17:26 antrun  
  6. -rw-r--r--. 1 root root      1618 6月   9 17:26 dist-layout-stitching.sh  
  7. -rw-r--r--. 1 root root       635 6月   9 17:26 dist-tar-stitching.sh  
  8. drwxr-xr-x. 9 root root      4096 6月   9 17:26 hadoop-2.2.0  
  9. -rw-r--r--. 1 root root  96183833 6月   9 17:27 hadoop-2.2.0.tar.gz  
  10. -rw-r--r--. 1 root root      2745 6月   9 17:26 hadoop-dist-2.2.0.jar  
  11. -rw-r--r--. 1 root root 192903472 6月   9 17:27 hadoop-dist-2.2.0-javadoc.jar  
  12. drwxr-xr-x. 2 root root      4096 6月   9 17:27 javadoc-bundle-options  
  13. drwxr-xr-x. 2 root root      4096 6月   9 17:26 maven-archiver  
  14. drwxr-xr-x. 2 root root      4096 6月   9 17:26 test-dir  
  15. [root@ganglia target]#   
[root@ganglia target]# pwd
/root/hadoop-2.2.0-src/hadoop-dist/target
[root@ganglia target]# ll
总用量 282348
drwxr-xr-x. 2 root root      4096 6月   9 17:26 antrun
-rw-r--r--. 1 root root      1618 6月   9 17:26 dist-layout-stitching.sh
-rw-r--r--. 1 root root       635 6月   9 17:26 dist-tar-stitching.sh
drwxr-xr-x. 9 root root      4096 6月   9 17:26 hadoop-2.2.0
-rw-r--r--. 1 root root  96183833 6月   9 17:27 hadoop-2.2.0.tar.gz
-rw-r--r--. 1 root root      2745 6月   9 17:26 hadoop-dist-2.2.0.jar
-rw-r--r--. 1 root root 192903472 6月   9 17:27 hadoop-dist-2.2.0-javadoc.jar
drwxr-xr-x. 2 root root      4096 6月   9 17:27 javadoc-bundle-options
drwxr-xr-x. 2 root root      4096 6月   9 17:26 maven-archiver
drwxr-xr-x. 2 root root      4096 6月   9 17:26 test-dir
[root@ganglia target]# 


编译完成后的本地库,位于如下位置,并查看本地库支持位数:

Java代码 复制代码  收藏代码
  1. [root@ganglia native]# pwd  
  2. /root/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/lib/native  
  3. [root@ganglia native]# ll  
  4. 总用量 3596  
  5. -rw-r--r--. 1 root root  733114 6月   9 17:26 libhadoop.a  
  6. -rw-r--r--. 1 root root 1487236 6月   9 17:26 libhadooppipes.a  
  7. lrwxrwxrwx. 1 root root      18 6月   9 17:26 libhadoop.so -> libhadoop.so.1.0.0  
  8. -rwxr-xr-x. 1 root root  411870 6月   9 17:26 libhadoop.so.1.0.0  
  9. -rw-r--r--. 1 root root  581944 6月   9 17:26 libhadooputils.a  
  10. -rw-r--r--. 1 root root  273330 6月   9 17:26 libhdfs.a  
  11. lrwxrwxrwx. 1 root root      16 6月   9 17:26 libhdfs.so -> libhdfs.so.0.0.0  
  12. -rwxr-xr-x. 1 root root  181042 6月   9 17:26 libhdfs.so.0.0.0  
  13. [root@ganglia native]# file libhadoop.so  
  14. libhadoop.so: symbolic link to `libhadoop.so.1.0.0'  
  15. [root@ganglia native]# file libhadoop.so.1.0.0   
  16. libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped  
  17. [root@ganglia native]#   
[root@ganglia native]# pwd
/root/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/lib/native
[root@ganglia native]# ll
总用量 3596
-rw-r--r--. 1 root root  733114 6月   9 17:26 libhadoop.a
-rw-r--r--. 1 root root 1487236 6月   9 17:26 libhadooppipes.a
lrwxrwxrwx. 1 root root      18 6月   9 17:26 libhadoop.so -> libhadoop.so.1.0.0
-rwxr-xr-x. 1 root root  411870 6月   9 17:26 libhadoop.so.1.0.0
-rw-r--r--. 1 root root  581944 6月   9 17:26 libhadooputils.a
-rw-r--r--. 1 root root  273330 6月   9 17:26 libhdfs.a
lrwxrwxrwx. 1 root root      16 6月   9 17:26 libhdfs.so -> libhdfs.so.0.0.0
-rwxr-xr-x. 1 root root  181042 6月   9 17:26 libhdfs.so.0.0.0
[root@ganglia native]# file libhadoop.so
libhadoop.so: symbolic link to `libhadoop.so.1.0.0'
[root@ganglia native]# file libhadoop.so.1.0.0 
libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped
[root@ganglia native]# 



至此,我们的编译已经,成功完成,然后,我们就可以使用在target目录下,编译生成的hadoop新的tar.gz包,来部署我们的hadoop集群。

 


这篇关于使用32位的hadoop运行在64位的系统上,将会出现一些库不兼容的异常的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/823481

相关文章

Java中String字符串使用避坑指南

《Java中String字符串使用避坑指南》Java中的String字符串是我们日常编程中用得最多的类之一,看似简单的String使用,却隐藏着不少“坑”,如果不注意,可能会导致性能问题、意外的错误容... 目录8个避坑点如下:1. 字符串的不可变性:每次修改都创建新对象2. 使用 == 比较字符串,陷阱满

Python使用国内镜像加速pip安装的方法讲解

《Python使用国内镜像加速pip安装的方法讲解》在Python开发中,pip是一个非常重要的工具,用于安装和管理Python的第三方库,然而,在国内使用pip安装依赖时,往往会因为网络问题而导致速... 目录一、pip 工具简介1. 什么是 pip?2. 什么是 -i 参数?二、国内镜像源的选择三、如何

使用C++实现链表元素的反转

《使用C++实现链表元素的反转》反转链表是链表操作中一个经典的问题,也是面试中常见的考题,本文将从思路到实现一步步地讲解如何实现链表的反转,帮助初学者理解这一操作,我们将使用C++代码演示具体实现,同... 目录问题定义思路分析代码实现带头节点的链表代码讲解其他实现方式时间和空间复杂度分析总结问题定义给定

Linux使用nload监控网络流量的方法

《Linux使用nload监控网络流量的方法》Linux中的nload命令是一个用于实时监控网络流量的工具,它提供了传入和传出流量的可视化表示,帮助用户一目了然地了解网络活动,本文给大家介绍了Linu... 目录简介安装示例用法基础用法指定网络接口限制显示特定流量类型指定刷新率设置流量速率的显示单位监控多个

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

如何使用Java实现请求deepseek

《如何使用Java实现请求deepseek》这篇文章主要为大家详细介绍了如何使用Java实现请求deepseek功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1.deepseek的api创建2.Java实现请求deepseek2.1 pom文件2.2 json转化文件2.2

python使用fastapi实现多语言国际化的操作指南

《python使用fastapi实现多语言国际化的操作指南》本文介绍了使用Python和FastAPI实现多语言国际化的操作指南,包括多语言架构技术栈、翻译管理、前端本地化、语言切换机制以及常见陷阱和... 目录多语言国际化实现指南项目多语言架构技术栈目录结构翻译工作流1. 翻译数据存储2. 翻译生成脚本

C++ Primer 多维数组的使用

《C++Primer多维数组的使用》本文主要介绍了多维数组在C++语言中的定义、初始化、下标引用以及使用范围for语句处理多维数组的方法,具有一定的参考价值,感兴趣的可以了解一下... 目录多维数组多维数组的初始化多维数组的下标引用使用范围for语句处理多维数组指针和多维数组多维数组严格来说,C++语言没

在 Spring Boot 中使用 @Autowired和 @Bean注解的示例详解

《在SpringBoot中使用@Autowired和@Bean注解的示例详解》本文通过一个示例演示了如何在SpringBoot中使用@Autowired和@Bean注解进行依赖注入和Bean... 目录在 Spring Boot 中使用 @Autowired 和 @Bean 注解示例背景1. 定义 Stud

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景