(csdn内转载)hbase完全分布式环境搭建

2024-01-12 13:08

本文主要是介绍(csdn内转载)hbase完全分布式环境搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

HBase是一个分布式的、面向列的开源数据库,该技术来源于Chang et al所撰写的Google论文“Bigtable:一个结构化数据的 分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。

             HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。

             HBase有三种模式:单机模式,伪分布式模式,完全分布式模式。下面介绍完全分布式安装。

             HBase安装前需要安装Hadoop,安装Hadoop请参照:http://blog.csdn.net/chabale/article/details/8808109

             HBase安装步骤如下:

             第一步:下载HBase包  tar -zxvf Hbase*.tar.gz  解压HBase

             第二步修改conf目录下的配置文件:

             a)hbase-env.sh

                     修改内容:       

              #java安装目录export JAVA_HOME=/usr/java/jdk1.6.0_24#Hbase日志目录export HBASE_LOG_DIR=/root/hadoop/hbase-0.94.6.1/logs#如果使用HBase自带的Zookeeper值设成true 如果使用自己安装的Zookeeper需要将该值设为falseexport HBASE_MANAGES_ZK=true
              b)hbase-site.xml

                                        

                 <configuration><property><name>hbase.rootdir</name><value>hdfs://master:9000/hbase</value></property><property><name>hbase.cluster.distributed</name><value>true</value></property><property><name>hbase.master</name><value>hdfs://master:60000</value></property><property><name>hbase.zookeeper.quorum</name><value>master,slave,slave1</value></property></configuration>

      

                   hbase.rootdir指定Hbase数据存储目录

                   hbase.cluster.distributed 指定是否是完全分布式模式,单机模式和伪分布式模式需要将该值设为false

                   hbase.master指定Master的位置

                   hbase.zookeeper.quorum 指定zooke的集群,多台机器以逗号分隔

           c)修改conf下的regionservers文件

                    master
                    slave
                    slave1

          d)再修改Hadoop hdfs-site.xml下的一个属性值。(记得其他的datanode也要进行修改)

                <property> 
                     <name>dfs.datanode.max.xcievers</name> 
                     <value>4096</value> 
                </property>
                该参数限制了datanode所允许同时执行的发送和接受任务的数量,缺省为256,hadoop-defaults.xml中通常不设置这个参数。这个限制看来实际有些偏小,高   负载

           e)拷贝hbase到所有的节点

         tar zcvf hbase-0.92.1.tar.gz hbase-0.92.1

         scp hbase-0.92.1.tar.gz hadoop@192.168.0.3:~/

         scp hdfs-site.xml hadoop@192.168.0.3:~/

         然后进行相应的解压、替换即可。

         其他datanode节点按照相同的操作即可。

  f)启动顺序:先启动Hadoop-》hbase,如果使用自己安装的zookeeper启动顺序是:Hadoop-》zookeeper-》hbase

                         停止顺序:hbase->zookeeper->hadoop

                  按照上面的顺序启动:

                  master主机上jps:

                 1145 SecondaryNameNode
                 1248 JobTracker
                  2025 Jps
                  1756 HMaster
                  1931 HRegionServer
                   965 NameNode

                 节点上jps:

                 1434 DataNode
                 1557 TaskTracker
                 1694 HQuorumPeer
                  1857 Jps

                  主机进到hbase的bin目录

                   运行./hbase shell

                HBase Shell; enter 'help<RETURN>' for list of supported commands.
                Type "exit<RETURN>" to leave the HBase Shell
                 Version 0.94.6.1, r1464658, Thu Apr  4 10:58:50 PDT 2013

                  hbase(main):001:0>

                 这就说明hbase已经成功安装


该博文转载自http://blog.csdn.net/chabale/article/details/8808620

这篇关于(csdn内转载)hbase完全分布式环境搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/597967

相关文章

Python如何自动生成环境依赖包requirements

《Python如何自动生成环境依赖包requirements》:本文主要介绍Python如何自动生成环境依赖包requirements问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑... 目录生成当前 python 环境 安装的所有依赖包1、命令2、常见问题只生成当前 项目 的所有依赖包1、

深入理解Apache Kafka(分布式流处理平台)

《深入理解ApacheKafka(分布式流处理平台)》ApacheKafka作为现代分布式系统中的核心中间件,为构建高吞吐量、低延迟的数据管道提供了强大支持,本文将深入探讨Kafka的核心概念、架构... 目录引言一、Apache Kafka概述1.1 什么是Kafka?1.2 Kafka的核心概念二、Ka

Redis在windows环境下如何启动

《Redis在windows环境下如何启动》:本文主要介绍Redis在windows环境下如何启动的实现方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Redis在Windows环境下启动1.在redis的安装目录下2.输入·redis-server.exe

Pytest多环境切换的常见方法介绍

《Pytest多环境切换的常见方法介绍》Pytest作为自动化测试的主力框架,如何实现本地、测试、预发、生产环境的灵活切换,本文总结了通过pytest框架实现自由环境切换的几种方法,大家可以根据需要进... 目录1.pytest-base-url2.hooks函数3.yml和fixture结论你是否也遇到过

利用Python快速搭建Markdown笔记发布系统

《利用Python快速搭建Markdown笔记发布系统》这篇文章主要为大家详细介绍了使用Python生态的成熟工具,在30分钟内搭建一个支持Markdown渲染、分类标签、全文搜索的私有化知识发布系统... 目录引言:为什么要自建知识博客一、技术选型:极简主义开发栈二、系统架构设计三、核心代码实现(分步解析

浅谈配置MMCV环境,解决报错,版本不匹配问题

《浅谈配置MMCV环境,解决报错,版本不匹配问题》:本文主要介绍浅谈配置MMCV环境,解决报错,版本不匹配问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录配置MMCV环境,解决报错,版本不匹配错误示例正确示例总结配置MMCV环境,解决报错,版本不匹配在col

Python FastAPI+Celery+RabbitMQ实现分布式图片水印处理系统

《PythonFastAPI+Celery+RabbitMQ实现分布式图片水印处理系统》这篇文章主要为大家详细介绍了PythonFastAPI如何结合Celery以及RabbitMQ实现简单的分布式... 实现思路FastAPI 服务器Celery 任务队列RabbitMQ 作为消息代理定时任务处理完整

使用Python实现快速搭建本地HTTP服务器

《使用Python实现快速搭建本地HTTP服务器》:本文主要介绍如何使用Python快速搭建本地HTTP服务器,轻松实现一键HTTP文件共享,同时结合二维码技术,让访问更简单,感兴趣的小伙伴可以了... 目录1. 概述2. 快速搭建 HTTP 文件共享服务2.1 核心思路2.2 代码实现2.3 代码解读3.

MySQL双主搭建+keepalived高可用的实现

《MySQL双主搭建+keepalived高可用的实现》本文主要介绍了MySQL双主搭建+keepalived高可用的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,... 目录一、测试环境准备二、主从搭建1.创建复制用户2.创建复制关系3.开启复制,确认复制是否成功4.同

redis+lua实现分布式限流的示例

《redis+lua实现分布式限流的示例》本文主要介绍了redis+lua实现分布式限流的示例,可以实现复杂的限流逻辑,如滑动窗口限流,并且避免了多步操作导致的并发问题,具有一定的参考价值,感兴趣的可... 目录为什么使用Redis+Lua实现分布式限流使用ZSET也可以实现限流,为什么选择lua的方式实现