本文主要是介绍河北省技能大赛-大数据赛项环境搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
河北省技能大赛
大数据环境搭建
环境准备
映射(在每个节点操作)
vi /etc/hosts # 进入文件
# 在文件最后面添加以下内容
192.168.88.154 master
192.168.88.156 slave1
192.168.88.155 slave2
设置免密
# 生成公钥(一直回车确认就可以)
ssh-keygen
# 将免密配置到各个节点
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
安装jdk
创建下载文件(用于存储软件包)
mkdir /opt/software
mkdir /opt/module
解压jdk软件包到/opt/module/目录
tar -zxvf jdk-8u202-linux-x64.tar.gz -C /opt/module/
配置环境变量(将以下参数添加到最后)
# 打开配置文件
vi /etc/profile
# 将以下参数添加到文件的最后
export JAVA_HOME=/opt/module/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
验证Java进行是否安装成功
Javac 或者 java -version
向其他节点分发配置
# 分发jdk文件
scp -r /opt/module/jdk1.8.0_202/ root@slave1:/opt/module/
scp -r /opt/module/jdk1.8.0_202/ root@slave2:/opt/module/
# 分发环境变量
scp -r /etc/profile root@slave1:/etc/profile
scp -r /etc/profile root@slave2:/etc/profile
安装Hadoop
解压Hadoop安装包
tar -zxvf hadoop-2.7.7.tar.gz -C /opt/module
进入配置文件目录
cd /opt/module/hadoop-2.7.7/etc/hadoop
配置hadoop-env.sh文件
vi hadoop-env.sh
将以下内容写到最后
export JAVA_HOME=/opt/module/jdk
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
配置core-site.xml文件
vi core-site.xml
<property><name>hadoop.tmp.dir</name><value>/opt/data/hadoop-2.7.7</value> </property><property><name>io.file.buffer.size</name><value>131072</value></property><property><name>fs.default.name</name><value>hdfs://master:9000</value></property><property><name>hadoop.proxyuser.root.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.root.groups</name><value>*</value></property>
配置hdfs-site.xml文件
vi hdfs-site.xml
<property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.name.dir</name><value>/opt/hdfs/name</value><final>true</final></property><property><name>dfs.datanode.data.dir</name><value>/opt/hdfs/data</value><final>true</final></property><property><name>dfs.namenode.secondary.http-address</name><value>slave1:9001</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property><property><name>dfs.permissions</name><value>false</value></property>
配置mapred-site.xml文件
vi mapred-site.xml
<property><name>mapreduce.framework.name</name><value>yarn</value></property>
配置yarn-site.xml文件
vi yarn-site.xml
<!-- Site specific YARN configuration properties --><property><name>yarn.resourcemanager.address</name><value>master:8010</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:8011</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:8012</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8013</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:8014</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>2048</value></property><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>1</value></property>
配置workers
vi workers
添加到文件
master
slave1
slave2
可以在每个节点输入Hadoop命令进行验证
分发配置文件
scp -r hadoop-2.7.7 root@slave1:$PWD
scp -r hadoop-2.7.7 root@slave2:$PWD
scp -r /etc/profile root@slave1:/etc/profile
scp -r /etc/profile root@slave2:/etc/profile
安装hive
卸载Centos7自带的mariadb
rpm -qa|grep mariadbrpm -e mariadb-libs-5.5.64-1.el7.x86_64 --nodepsrpm -qa|grep mariadb
安装mysql
mkdir /opt/module/mysql
# 上传并且解压到上述文件夹下
tar xvf mysql-5.7.29-1.el7.x86_64.rpm-bundle.tar
# 执行安装
yum -y install libaio
yum install net-tools# 进行安装
rpm -ivh mysql-community-common-5.7.29-1.el7.x86_64.rpm mysql-community-libs-5.7.29-1.el7.x86_64.rpm mysql-community-client-5.7.29-1.el7.x86_64.rpm mysql-community-server-5.7.29-1.el7.x86_64.rpm # 初始化
mysqld --initialize
# 更改所属组
chown mysql:mysql /var/lib/mysql -R
# 启动MySQL
systemctl start mysqld.service
# 查看生成的临时密码
cat /var/log/mysqld.log
# 进入MySQL
mysql -u root -p
输入刚才的临时密码
#更新root密码 设置为123456
alter user user() identified by "123456";
#授权
use mysql;
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'hadoop' WITH GRANT OPTION;
#建议设置为开机自启动服务
systemctl enable mysqld
安装hive
tar zxvf apache-hive-3.1.2-bin.tar.gz
解决Hive与Hadoop之间guava版本差异
cd /opt/module/apache-hive-3.1.2-bin
rm -rf lib/guava-19.0.jar
cp /opt/module/hadoop-2.7.7/share/hadoop/common/lib/guava-27.0-jre.jar ./lib/
修改配置文件
vi hive-env.sh
# 加到文件最后
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export HIVE_CONF_DIR=/opt/module/apache-hive-3.1.2-bin/conf
export HIVE_AUX_JARS_PATH=/opt/module/apache-hive-3.1.2-bin/lib
hive-site.xml
vi hive-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<!-- 存储元数据mysql相关配置 -->
<property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://192.168.88.154:3306/hive3?createDatabaseIfNotExist=true&useSSL=false&useUnicode=true&characterEncoding=UTF-8</value>
</property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value>
</property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value>
</property><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value>
</property><!-- H2S运行绑定host -->
<property><name>hive.server2.thrift.bind.host</name><value>master</value>
</property><!-- 远程模式部署metastore metastore地址 -->
<property><name>hive.metastore.uris</name><value>thrift://master:9083</value>
</property><!-- 关闭元数据存储授权 -->
<property><name>hive.metastore.event.db.notification.api.auth</name><value>false</value>
</property><property><name>datanucleus.connectionPoolingType</name><value>dbcp</value><description>Expects one of [bonecp, dbcp, hikaricp, none].Specify connection pool library for datanucleus</description></property>
上传mysql jdbc驱动到hive安装包lib下
mysql-connector-java-5.1.32.jar
初始化数据
cd /export/server/apache-hive-3.1.2-bin/bin/schematool -initSchema -dbType mysql -verbos
#初始化成功会在mysql中创建74张表
在hdfs中创建hive存储目录(如果存在则不需要创建)
hadoop fs -mkdir /tmp
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
启动hive
启动metastore服务
/opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore
/opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore --hiveconf hive.root.logger=DEBUG,console
nohup /opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore &
启动hiveserver2服务
nohup /opt/module/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &
beeline客户端连接
拷贝master安装包到beeline客户端机器上(任意从节点)
测试连接
scp -r /opt/module/apache-hive-3.1.2-bin/ root@slave2 /opt/module
测试连接
/opt/module/apache-hive-3.1.2-bin/bin/beeline
beeline> ! connect jdbc:hive2://node1:10000
beeline> root
beeline> 直接回车
安装spark
上传安装包文件
spark-2.1.1-bin-hadoop2.7
解压安装包
tar xvf spark-2.1.1-bin-hadoop2.7 -C /opt/module/
修改环境变量
export JAVA_HOME=/opt/module/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export SPARK_HOME=/opt/module/spark-2.1.1-bin-hadoop2.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
vi /root/.bashrc
export JAVA_HOME=/opt/module/jdk1.8.0_202
export PATH=$JAVA_HOME/bin:$PATH
配置文件
cd $SPARK_HOME/conf
# 改名, 去掉后面的.template后缀
mv workers.template workers# 编辑worker文件
vim workers
# 将里面的localhost删除, 追加
master
slave1
slave2
# 功能: 这个文件就是指示了 当前SparkStandAlone环境下, 有哪些worker
配置spark-env.sh文件
export JAVA_HOME=/opt/module/jdk1.8.0_202
export SPARK_DIST_CLASSPATH=$(/opt/module/hadoop-2.7.7/bin/hadoop classpath)
## HADOOP软件配置文件目录,读取HDFS上文件和运行YARN集群
HADOOP_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
YARN_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
## 指定spark老大Master的IP和提交任务的通信端口
# 告知Spark的master运行在哪个机器上
export SPARK_MASTER_HOST=master
# 告知sparkmaster的通讯端口
export SPARK_MASTER_PORT=7077
# 告知spark master的webui端口
SPARK_MASTER_WEBUI_PORT=8080
# worker cpu可用核数
SPARK_WORKER_CORES=1
# worker可用内存
SPARK_WORKER_MEMORY=1g
# worker的工作通讯地址
SPARK_WORKER_PORT=7078
# worker的webui地址
SPARK_WORKER_WEBUI_PORT=8081
## 设置历史服务器
# 配置的意思是 将spark程序运行的历史日志 存到hdfs的/sparklog文件夹中
SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://master:9000/sparklog/ -Dspark.history.fs.cleaner.enabled=true"
在HDFS上创建程序运行历史记录存放的文件夹:(没有不创建的话会报错)
hadoop fs -mkdir /sparklog
hadoop fs -chmod 777 /sparklog
配置spark-defaults.conf文件
# 改名
mv spark-defaults.conf.template spark-defaults.conf
# 开启spark的日期记录功能
spark.eventLog.enabled true
# 设置spark日志记录的路径
spark.eventLog.dir hdfs://master:9000/sparklog/
# 设置spark日志是否启动压缩
spark.eventLog.compress true
配置log4j.properties 文件 [可选配置]
# 1. 改名
mv log4j.properties.template log4j.properties# 将第19行的INFO 改为WARN
将Spark安装文件夹 分发到其它的服务器上
scp -r /opt/module/spark-2.1.1-bin-hadoop2.7 slave1:/opt/module/
scp -r /opt/module/spark-2.1.1-bin-hadoop2.7 slave2:/opt/module/
检查每台机器的环境变量
sbin/start-history-server.sh
安装flink
tar -zxvf flink-1.10.2-bin-scala_2.12 -C /opt/module
配置 vi flink-conf.yaml
# 配置Master的机器名(IP地址)
jobmanager.rpc.address: master
# 配置每个taskmanager生成的临时文件夹
taskmanager.tmp.dirs: /opt/module/flink-1.6.0/tmp
vi slaves
master
slave1
slave2
使用scp命令分发flink到其他节点
scp -r /opt/module/flink-1.10.2/ slave1:/opt/module/
scp -r /opt/module/flink-1.10.2/ slave2:/opt/module/
启动Flink集群
bin/start-cluster.sh
Flink web界面
http://192.168.88.154:8081/#/overview
这篇关于河北省技能大赛-大数据赛项环境搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!