Centos7.2 安装Hadoop、Hbase、Elasticsearch与JanusGraph并配置Http访问

本文主要是介绍Centos7.2 安装Hadoop、Hbase、Elasticsearch与JanusGraph并配置Http访问,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

JanusGraph是分布式图数据库,前身是Titan。JanusGraph是Titan的一个fork。Titan项目创建于2012年,于2016年停止维护,2017年,JanusGraph项目fork了Titan,直至今天。所以建议大家优选JanusGraph,当然Titan依然是可用的。

JanusGraph支持多种后端和索引,这里博主选择Hbase与Elasticsearch。大家在安装之前,请一定参考相关版本的兼容性。这里博主使用:

Centos7.2

jdk-8u191-linux-x64.rpm

hadoop-2.7.6

zookeeper-3.4.9

hbase-1.2.6

elasticsearch-5.6.5

janusgraph-0.3.1-hadoop2

这里JanusGraph使用hbase做后端、elasticsearch做索引,并且在单节点进行伪分布式的配置。所以首先安装jdk,安装之前请先卸载系统自动的jdk。

一、安装Java环境

1、下载 jdk-8u191-linux-x64.rpm

2、安装jdk:

rpm -ivh jdk-8u191-linux-x64.rpm

安装成功之后即可使用 java -version 查看java的信息。但是为了后续安装,还是建议配置java环境变量。

3、配置java环境变量:

vim /etc/profile

在最后面加上:

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64
export JRE_HOME=/usr/java/jdk1.8.0_191-amd64/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

保存后使环境变量生效:

source /etc/profile

二、关闭禁用防火墙:

systemctl stop firewalld.service

systemctl disable firewalld.service

三、安装Hadoop:

为了避免后续安装问题,安装的Hadoop一定要根据Hbase的兼容性选择版本。

1、下载hadoop-2.7.6.tar.gz

2、解压:

tar -xzvf hadoop-2.7.6.tar.gz

3、配置环境变量,在/etc/profile之后加上:

export HADOOP_HOME=/data/janus/hadoop-2.7.6
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

4、配置hadoop-2.7.6/etc/hadoop/slaves:

将localhost改成master  (master为hostname)

5、配置hadoop-2.7.6/etc/hadoop/hadoop-env.sh:

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64

改为实际的java地址。

6、配置hadoop-2.7.6/etc/hadoop/core-site.xml:

<configuration><property> <name>fs.defaultFS</name><value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name><value>data/janus/hadoop-2.7.6/tmp</value> </property> 	
</configuration>

data/janus/hadoop-2.7.6为hadoop的解压目录

7、配置hadoop-2.7.6/etc/hadoop/hdfs-site.xml:

<configuration><property> <name>dfs.namenode.name.dir</name> <value>data/janus/hadoop-2.7.6/dfs/name</value> </property> <property><name>dfs.datanode.data.dir</name><value>data/janus/hadoop-2.7.6/dfs/data</value> </property> <property><name>dfs.replication</name><value>1</value> </property><property> <name>dfs.namenode.secondary.http-address</name> <value>master:9001</value> </property> <property><name>dfs.webhdfs.enabled</name><value>true</value> </property>
</configuration>

建议在data/janus/hadoop-2.7.6下先创建name与data文件夹,并赋予777权限。

8、配置hadoop-2.7.6/etc/hadoop/yarn-site.xml:

<configuration><property><name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property><name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property><name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property><name>yarn.resourcemanager.resource-tracker.address</name>  <value>master:8031</value> </property> <property><name>yarn.resourcemanager.admin.address</name>   <value>master:8033</value> </property> <property><name>yarn.resourcemanager.webapp.address</name> <value>master:8034</value> </property> 
</configuration>

9、配置hadoop-2.7.6/etc/hadoop/mapred-site.xml:

<configuration><property><name>mapreduce.framework.name</name> <value>yarn</value> </property> <property><name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property>
</configuration>

10、初始化:

在hadoop-2.7.6/下执行:

bin/hdfs namenode -format

11、启动hadoop:

sbin/start-all.sh (停止sbin/stop-all.sh)

12、在浏览器中通过:

IP:50070进行访问。

四、安装zookeeper

1、下载zookeeper-3.49.tar.gz

2、解压:

tar -vxf zookeeper-3.49.tar.gz

3、配置zookeeper-3.4.9/conf/zoo.cfg:

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/install_pakage/zookeeper-3.4.9/data
clientPort=2181

4、启动:

bin/zkServer.sh start 

查看启动状态 bin/zkServer.sh status

五、安装hbase-1.2.6

1、下载hbase-1.2.6-bin.tar.gz

2、解压:

tar -xvf hbase-1.2.6-bin.tar.gz

3、添加环境变量:

export HBASE_HOME=/data/janus/hbase-1.2.6
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin

4、配置hbase-1.2.6/conf/regionservers

改为master

5、配置hbase-1.2.6/conf/hbase-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64/

6、配置hbase-1.2.6/conf/hbase-site.xml

<configuration><property> <name>hbase.rootdir</name><value>hdfs://master:9000/opt/hbase/hbase_db</value></property> <property> <name>hbase.cluster.distributed</name><value>true</value> </property><property> <name>hbase.zookeeper.quorum</name><value>master</value> </property>     <property><!--zookooper配置、日志等的存储位置 --><name>hbase.zookeeper.property.dataDir</name> <value>/data/janus/zookeeper-3.4.9/data</value></property>	
</configuration>

7、启动hbase:

bin/start-hbase.sh

8、通过网页访问:

IP:16010

六、安装elasticsearch-5.6.5

1、下载elasticsearch-5.6.5.zip

2、elasticsearch-5.6.5不允许使用root用户,所以需要首先新建用户和用户组:

adduser es
passwd es

groupadd esg
usermod -G esg es

chmod -R 777 elasticsearch-5.6.5

chown -R es elasticsearch-5.6.5
chgrp -R esg elasticsearch-5.6.5

3、配置elasticsearch-5.6.5/config/jvm.options

-Xms2g
-Xmx2g
改为
-Xms256m
-Xmx256m

4、配置elasticsearch-5.6.5/config/elasticsearch.yml

cluster.name: my-application
node.name: node-1
network.host: 192.168.0.234
http.port: 9200

5、启动elasticsearch-5.6.5

./bin/elasticsearch

后台启动:./bin/elasticsearch -d

结束后台进程:

ps -ef | grep elastic

kill -9 进程号

6、通过网页访问:

IP:9200

七、安装janusgraph并配置HTTP访问:

1、下载janusgraph-0.3.1-hadoop2.zip

2、解压:

unzip janusgraph-0.3.1-hadoop2.zip

3、复制janusgraph-hbase-es.properties 为http-janusgraph-hbase-es.properties 放在janusgraph-0.3.1-hadoop2/conf/gremlin-server目录下,http-janusgraph-hbase-es.properties配置如下:

storage.backend = hbase
storage.hostname = master
cache.db-cache = true
cache.db-cache-clean-wait = 20
cache.db-cache-time = 180000
cache.db-cache-size = 0.5
index.search.backend = elasticsearch
index.search.hostname = master
gremlin.graph = org.janusgraph.core.JanusGraphFactory
storage.hbase.table = janus

4、复制gremlin-server.yaml为http-gremlin-server.yaml 放在janusgraph-0.3.1-hadoop2/conf/gremlin-server目录下,http-gremlin-server.yaml 更改下列配置如下:

host: 192.168.0.234
port: 8182
scriptEvaluationTimeout: 30000
channelizer: org.apache.tinkerpop.gremlin.server.channel.HttpChannelizer
graphs: {graph: conf/gremlin-server/http-janusgraph-hbase-es.properties
}

5、运行gremlin-server:

./bin/gremlin-server.sh conf/gremlin-server/http-gremlin-server.yaml

6、通过web接口访问:

IP:8182/?gremlin=100-10

结果如下:

这篇关于Centos7.2 安装Hadoop、Hbase、Elasticsearch与JanusGraph并配置Http访问的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1115779

相关文章

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

Zookeeper安装和配置说明

一、Zookeeper的搭建方式 Zookeeper安装方式有三种,单机模式和集群模式以及伪集群模式。 ■ 单机模式:Zookeeper只运行在一台服务器上,适合测试环境; ■ 伪集群模式:就是在一台物理机上运行多个Zookeeper 实例; ■ 集群模式:Zookeeper运行于一个集群上,适合生产环境,这个计算机集群被称为一个“集合体”(ensemble) Zookeeper通过复制来实现

CentOS7安装配置mysql5.7 tar免安装版

一、CentOS7.4系统自带mariadb # 查看系统自带的Mariadb[root@localhost~]# rpm -qa|grep mariadbmariadb-libs-5.5.44-2.el7.centos.x86_64# 卸载系统自带的Mariadb[root@localhost ~]# rpm -e --nodeps mariadb-libs-5.5.44-2.el7

Centos7安装Mongodb4

1、下载源码包 curl -O https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.2.1.tgz 2、解压 放到 /usr/local/ 目录下 tar -zxvf mongodb-linux-x86_64-rhel70-4.2.1.tgzmv mongodb-linux-x86_64-rhel70-4.2.1/

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

hadoop开启回收站配置

开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 开启回收站功能参数说明 (1)默认值fs.trash.interval = 0,0表示禁用回收站;其他值表示设置文件的存活时间。 (2)默认值fs.trash.checkpoint.interval = 0,检查回收站的间隔时间。如果该值为0,则该值设置和fs.trash.interval的参数值相等。

NameNode内存生产配置

Hadoop2.x 系列,配置 NameNode 内存 NameNode 内存默认 2000m ,如果服务器内存 4G , NameNode 内存可以配置 3g 。在 hadoop-env.sh 文件中配置如下。 HADOOP_NAMENODE_OPTS=-Xmx3072m Hadoop3.x 系列,配置 Nam

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

wolfSSL参数设置或配置项解释

1. wolfCrypt Only 解释:wolfCrypt是一个开源的、轻量级的、可移植的加密库,支持多种加密算法和协议。选择“wolfCrypt Only”意味着系统或应用将仅使用wolfCrypt库进行加密操作,而不依赖其他加密库。 2. DTLS Support 解释:DTLS(Datagram Transport Layer Security)是一种基于UDP的安全协议,提供类似于