open-falcon hbase服务配置

2023-12-15 04:18
文章标签 配置 服务 open hbase falcon

本文主要是介绍open-falcon hbase服务配置,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目的

安装 hbase

需求

zookeeper
hadoop

参考

软件下载

hbase 官方下载地址

hbase 安装

环境变量

java (/etc/profile)

JAVA_HOME=/apps/svr/java
JRE_HOME=$JAVA_HOME/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export  JAVA_HOME JRE_HOME CLASS_PATH  PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL

hbase 环境 (/etc/profile)

HBASE_HOME=/apps/svr/hbase
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$ZOOKEEPER_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin

hbase 启动环境

grep -v "#" /apps/svr/hbase/conf/hbase-env.sh  | grep -v ^$
export JAVA_HOME=/apps/svr/java
export HBASE_OPTS="$HBASE_OPTS -XX:+UseConcMarkSweepGC"
export HBASE_MANAGES_ZK=false

解压与目录

解压 hbase

tar xf hbase-2.2.5-bin.tar.gz -C /apps/svr/
cd /apps/svr/
ln -s hbase-2.2.5 hbase

创建 temp 目录

mkdir /apps/svr/hbase/tmp

确认 hadoop 环境

[root@ns-yun-020022 conf]# jps
155507 DataNode
155927 NodeManager
144379 QuorumPeerMain
6239 Jps
155741 JournalNode[root@ns-yun-020023 conf]# jps
176242 DataNode
176550 JournalNode
56663 Jps
175832 DFSZKFailoverController
176424 NameNode
177209 ResourceManager
166153 QuorumPeerMain
176829 NodeManager[root@ns-yun-020024 hbase]# jps
37233 Jps
8531 NodeManager
8036 JournalNode
7720 NameNode
6683 DFSZKFailoverController
9851 JobHistoryServer
3324 QuorumPeerMain
7388 DataNode
8399 ResourceManager

配置 hbase

每台 habase 都据需要下面配置
/apps/svr/hbase/conf/hbase-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration><property><name>hbase.cluster.distributed</name><value>true</value></property><property><name>hbase.rootdir</name><value>hdfs://ha01/vipfalcon</value></property><property><name>hbase.tmp.dir</name><value>/apps/svr/hbase/tmp</value></property><property><name>zookeeper.znode.parent</name><value>/vipfalcon</value></property><property><name>hbase.zookeeper.quorum</name><value>ns-yun-020022.133.com:2181,ns-yun-020023.133.com:2181,ns-yun-020024.133.com:2181</value></property><property><name>hbase.unsafe.stream.capability.enforce</name><value>false</value></property>
</configuration>

/apps/svr/hbase/conf/regionservers

ns-yun-020022.133.com
ns-yun-020023.133.com
ns-yun-020024.133.com

复制 hadoop 配置至 hbase

cp /apps/svr/hadoop/etc/hadoop/core-site.xml  /apps/svr/hadoop/etc/hadoop/hdfs-site.xml /apps/svr/hbase/conf/

启动 hbase

只需要在其中一台 hbase上启动

[root@ns-yun-020022 apps]# start-hbase.sh
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/apps/svr/hadoop-2.10.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/apps/svr/hbase-2.2.5/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
running master, logging to /apps/svr/hbase/bin/../logs/hbase-root-master-ns-yun-020022.133.com.out
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/apps/svr/hadoop-2.10.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/apps/svr/hbase-2.2.5/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
ns-yun-020022.133.com: running regionserver, logging to /apps/svr/hbase/bin/../logs/hbase-root-regionserver-ns-yun-020022.133.com.out
ns-yun-020023.133.com: running regionserver, logging to /apps/svr/hbase/bin/../logs/hbase-root-regionserver-ns-yun-020023.133.com.out
ns-yun-020024.133.com: running regionserver, logging to /apps/svr/hbase/bin/../logs/hbase-root-regionserver-ns-yun-020024.133.com.out[root@ns-yun-020022 apps]# start-hbase.sh
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/apps/svr/hadoop-2.10.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/apps/svr/hbase-2.2.5/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
running master, logging to /apps/svr/hbase/bin/../logs/hbase-root-master-ns-yun-020022.133.com.out
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/apps/svr/hadoop-2.10.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/apps/svr/hbase-2.2.5/lib/client-facing-thirdparty/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
ns-yun-020022.133.com: running regionserver, logging to /apps/svr/hbase/bin/../logs/hbase-root-regionserver-ns-yun-020022.133.com.out
ns-yun-020023.133.com: running regionserver, logging to /apps/svr/hbase/bin/../logs/hbase-root-regionserver-ns-yun-020023.133.com.out
ns-yun-020024.133.com: running regionserver, logging to /apps/svr/hbase/bin/../logs/hbase-root-regionserver-ns-yun-020024.133.com.out

留意日志, 已启动 master 及 regionserver

验证 hbase 启动

[root@ns-yun-020022 apps]# jps
155507 DataNode
155927 NodeManager
6792 HRegionServer             <- hbaseregionserver
144379 QuorumPeerMain
8091 Jps
6607 HMaster                    <- hbase master 
155741 JournalNode[root@ns-yun-020023 conf]# jps
176242 DataNode
176550 JournalNode
56836 HRegionServer             <- hbaseregionserver
57703 Jps
175832 DFSZKFailoverController
57210 HMaster
176424 NameNode
177209 ResourceManager
166153 QuorumPeerMain
176829 NodeManager[root@ns-yun-020024 hbase]# jps
8531 NodeManager
8036 JournalNode
38276 Jps
7720 NameNode
37914 HMaster
37498 HRegionServer             <- hbaseregionserver
6683 DFSZKFailoverController
9851 JobHistoryServer
3324 QuorumPeerMain
7388 DataNode
8399 ResourceManager

手动启动

假如进程有问题,可以通过下面方法进行手动启动

hbase-daemon.sh start master
hbase-daemon.sh start regionserver 

这篇关于open-falcon hbase服务配置的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/495083

相关文章

C#读取本地网络配置信息全攻略分享

《C#读取本地网络配置信息全攻略分享》在当今数字化时代,网络已深度融入我们生活与工作的方方面面,对于软件开发而言,掌握本地计算机的网络配置信息显得尤为关键,而在C#编程的世界里,我们又该如何巧妙地读取... 目录一、引言二、C# 读取本地网络配置信息的基础准备2.1 引入关键命名空间2.2 理解核心类与方法

最新版IDEA配置 Tomcat的详细过程

《最新版IDEA配置Tomcat的详细过程》本文介绍如何在IDEA中配置Tomcat服务器,并创建Web项目,首先检查Tomcat是否安装完成,然后在IDEA中创建Web项目并添加Web结构,接着,... 目录配置tomcat第一步,先给项目添加Web结构查看端口号配置tomcat    先检查自己的to

Servlet中配置和使用过滤器的步骤记录

《Servlet中配置和使用过滤器的步骤记录》:本文主要介绍在Servlet中配置和使用过滤器的方法,包括创建过滤器类、配置过滤器以及在Web应用中使用过滤器等步骤,文中通过代码介绍的非常详细,需... 目录创建过滤器类配置过滤器使用过滤器总结在Servlet中配置和使用过滤器主要包括创建过滤器类、配置过滤

在 VSCode 中配置 C++ 开发环境的详细教程

《在VSCode中配置C++开发环境的详细教程》本文详细介绍了如何在VisualStudioCode(VSCode)中配置C++开发环境,包括安装必要的工具、配置编译器、设置调试环境等步骤,通... 目录如何在 VSCode 中配置 C++ 开发环境:详细教程1. 什么是 VSCode?2. 安装 VSCo

在Spring中配置Quartz的三种方式

《在Spring中配置Quartz的三种方式》SpringQuartz是一个任务调度框架,它允许我们定期执行特定的任务,在Spring中,我们可以通过多种方式来配置Quartz,包括使用​​@Sche... 目录介绍使用 ​​@Scheduled​​ 注解XML 配置Java 配置1. 创建Quartz配置

Kibana的安装和配置全过程

《Kibana的安装和配置全过程》Kibana是一个开源的数据分析和可视化平台,它与Elasticsearch紧密集成,提供了一个直观的Web界面,使您可以快速地搜索、分析和可视化数据,在本文中,我们... 目录Kibana的安装和配置1.安装Java运行环境2.下载Kibana3.解压缩Kibana4.配

tomcat在nginx中的配置方式

《tomcat在nginx中的配置方式》文章介绍了如何在Linux系统上安装和配置Tomcat,并通过Nginx进行代理,首先,下载并解压Tomcat压缩包,然后启动Tomcat并查看日志,接着,配置... 目录一、下载安装tomcat二、启动tomcat三、配置nginx总结提示:文章写完后,目录可以自动

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。