河北省技能大赛-大数据赛项环境搭建

2023-11-10 10:45

本文主要是介绍河北省技能大赛-大数据赛项环境搭建,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

河北省技能大赛

大数据环境搭建

环境准备

映射(在每个节点操作)

vi /etc/hosts # 进入文件
# 在文件最后面添加以下内容
192.168.88.154 master
192.168.88.156 slave1
192.168.88.155 slave2

设置免密

# 生成公钥(一直回车确认就可以)
ssh-keygen
# 将免密配置到各个节点
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

安装jdk

创建下载文件(用于存储软件包)

mkdir /opt/software
mkdir /opt/module

解压jdk软件包到/opt/module/目录

tar -zxvf jdk-8u202-linux-x64.tar.gz -C /opt/module/

配置环境变量(将以下参数添加到最后)

# 打开配置文件
vi /etc/profile
# 将以下参数添加到文件的最后
export JAVA_HOME=/opt/module/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

验证Java进行是否安装成功

Javac 或者 java -version 

向其他节点分发配置

# 分发jdk文件
scp -r /opt/module/jdk1.8.0_202/ root@slave1:/opt/module/
scp -r /opt/module/jdk1.8.0_202/ root@slave2:/opt/module/
# 分发环境变量
scp -r /etc/profile root@slave1:/etc/profile
scp -r /etc/profile root@slave2:/etc/profile

安装Hadoop

解压Hadoop安装包

tar -zxvf hadoop-2.7.7.tar.gz -C /opt/module

进入配置文件目录

cd /opt/module/hadoop-2.7.7/etc/hadoop

配置hadoop-env.sh文件

vi hadoop-env.sh

将以下内容写到最后

export JAVA_HOME=/opt/module/jdk
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

配置core-site.xml文件

vi core-site.xml
<property><name>hadoop.tmp.dir</name><value>/opt/data/hadoop-2.7.7</value> </property><property><name>io.file.buffer.size</name><value>131072</value></property><property><name>fs.default.name</name><value>hdfs://master:9000</value></property><property><name>hadoop.proxyuser.root.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.root.groups</name><value>*</value></property>

配置hdfs-site.xml文件

vi hdfs-site.xml
<property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.name.dir</name><value>/opt/hdfs/name</value><final>true</final></property><property><name>dfs.datanode.data.dir</name><value>/opt/hdfs/data</value><final>true</final></property><property><name>dfs.namenode.secondary.http-address</name><value>slave1:9001</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property><property><name>dfs.permissions</name><value>false</value></property>

配置mapred-site.xml文件

vi mapred-site.xml
<property><name>mapreduce.framework.name</name><value>yarn</value></property>

配置yarn-site.xml文件

vi yarn-site.xml
<!-- Site specific YARN configuration properties --><property><name>yarn.resourcemanager.address</name><value>master:8010</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:8011</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:8012</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8013</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:8014</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>2048</value></property><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>1</value></property>

配置workers

vi workers

添加到文件

master
slave1
slave2

可以在每个节点输入Hadoop命令进行验证

分发配置文件

scp -r hadoop-2.7.7 root@slave1:$PWD
scp -r hadoop-2.7.7 root@slave2:$PWD
scp -r /etc/profile root@slave1:/etc/profile
scp -r /etc/profile root@slave2:/etc/profile

安装hive

卸载Centos7自带的mariadb

rpm -qa|grep mariadbrpm -e mariadb-libs-5.5.64-1.el7.x86_64 --nodepsrpm -qa|grep mariadb 

安装mysql

mkdir /opt/module/mysql
# 上传并且解压到上述文件夹下
tar xvf mysql-5.7.29-1.el7.x86_64.rpm-bundle.tar
# 执行安装
yum -y install libaio
yum install net-tools# 进行安装
rpm -ivh mysql-community-common-5.7.29-1.el7.x86_64.rpm mysql-community-libs-5.7.29-1.el7.x86_64.rpm mysql-community-client-5.7.29-1.el7.x86_64.rpm mysql-community-server-5.7.29-1.el7.x86_64.rpm # 初始化
mysqld --initialize
# 更改所属组
chown mysql:mysql /var/lib/mysql -R
# 启动MySQL
systemctl start mysqld.service
# 查看生成的临时密码
cat  /var/log/mysqld.log
# 进入MySQL
mysql -u root -p
输入刚才的临时密码
#更新root密码  设置为123456
alter user user() identified by "123456";
#授权
use mysql;
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'hadoop' WITH GRANT OPTION;
#建议设置为开机自启动服务
systemctl enable  mysqld

安装hive

tar zxvf apache-hive-3.1.2-bin.tar.gz

解决Hive与Hadoop之间guava版本差异

cd /opt/module/apache-hive-3.1.2-bin
rm -rf lib/guava-19.0.jar
cp /opt/module/hadoop-2.7.7/share/hadoop/common/lib/guava-27.0-jre.jar ./lib/

修改配置文件

vi hive-env.sh
# 加到文件最后
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export HIVE_CONF_DIR=/opt/module/apache-hive-3.1.2-bin/conf
export HIVE_AUX_JARS_PATH=/opt/module/apache-hive-3.1.2-bin/lib

hive-site.xml

vi hive-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<!-- 存储元数据mysql相关配置 -->
<property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://192.168.88.154:3306/hive3?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
</property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value>
</property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value>
</property><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value>
</property><!-- H2S运行绑定host -->
<property><name>hive.server2.thrift.bind.host</name><value>master</value>
</property><!-- 远程模式部署metastore metastore地址 -->
<property><name>hive.metastore.uris</name><value>thrift://master:9083</value>
</property><!-- 关闭元数据存储授权  --> 
<property><name>hive.metastore.event.db.notification.api.auth</name><value>false</value>
</property><property><name>datanucleus.connectionPoolingType</name><value>dbcp</value><description>Expects one of [bonecp, dbcp, hikaricp, none].Specify connection pool library for datanucleus</description></property>

上传mysql jdbc驱动到hive安装包lib下

mysql-connector-java-5.1.32.jar

初始化数据

cd /export/server/apache-hive-3.1.2-bin/bin/schematool -initSchema -dbType mysql -verbos
#初始化成功会在mysql中创建74张表

在hdfs中创建hive存储目录(如果存在则不需要创建)

hadoop fs -mkdir /tmp
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse

启动hive

启动metastore服务

/opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore
/opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore --hiveconf hive.root.logger=DEBUG,console  
nohup /opt/module/apache-hive-3.1.2-bin/bin/hive --service metastore &

启动hiveserver2服务

nohup /opt/module/apache-hive-3.1.2-bin/bin/hive --service  hiveserver2 &

beeline客户端连接

拷贝master安装包到beeline客户端机器上(任意从节点)

测试连接

scp -r /opt/module/apache-hive-3.1.2-bin/ root@slave2 /opt/module

测试连接

/opt/module/apache-hive-3.1.2-bin/bin/beeline
beeline> ! connect jdbc:hive2://node1:10000
beeline> root
beeline> 直接回车

安装spark

上传安装包文件

spark-2.1.1-bin-hadoop2.7

解压安装包

tar xvf spark-2.1.1-bin-hadoop2.7 -C /opt/module/

修改环境变量

export JAVA_HOME=/opt/module/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/opt/module/hadoop-2.7.7
export SPARK_HOME=/opt/module/spark-2.1.1-bin-hadoop2.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
vi /root/.bashrc
export JAVA_HOME=/opt/module/jdk1.8.0_202
export PATH=$JAVA_HOME/bin:$PATH

配置文件

cd $SPARK_HOME/conf
# 改名, 去掉后面的.template后缀
mv workers.template workers# 编辑worker文件
vim workers
# 将里面的localhost删除, 追加
master
slave1
slave2
# 功能: 这个文件就是指示了  当前SparkStandAlone环境下, 有哪些worker

配置spark-env.sh文件

export JAVA_HOME=/opt/module/jdk1.8.0_202
export SPARK_DIST_CLASSPATH=$(/opt/module/hadoop-2.7.7/bin/hadoop classpath)
## HADOOP软件配置文件目录,读取HDFS上文件和运行YARN集群
HADOOP_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
YARN_CONF_DIR=/opt/module/hadoop-2.7.7/etc/hadoop
## 指定spark老大Master的IP和提交任务的通信端口
# 告知Spark的master运行在哪个机器上
export SPARK_MASTER_HOST=master
# 告知sparkmaster的通讯端口
export SPARK_MASTER_PORT=7077
# 告知spark master的webui端口
SPARK_MASTER_WEBUI_PORT=8080
# worker cpu可用核数
SPARK_WORKER_CORES=1
# worker可用内存
SPARK_WORKER_MEMORY=1g
# worker的工作通讯地址
SPARK_WORKER_PORT=7078
# worker的webui地址
SPARK_WORKER_WEBUI_PORT=8081
## 设置历史服务器
# 配置的意思是  将spark程序运行的历史日志 存到hdfs的/sparklog文件夹中
SPARK_HISTORY_OPTS="-Dspark.history.fs.logDirectory=hdfs://master:9000/sparklog/ -Dspark.history.fs.cleaner.enabled=true"

在HDFS上创建程序运行历史记录存放的文件夹:(没有不创建的话会报错)

hadoop fs -mkdir /sparklog
hadoop fs -chmod 777 /sparklog

配置spark-defaults.conf文件

# 改名
mv spark-defaults.conf.template spark-defaults.conf
# 开启spark的日期记录功能
spark.eventLog.enabled  true
# 设置spark日志记录的路径
spark.eventLog.dir   hdfs://master:9000/sparklog/
# 设置spark日志是否启动压缩
spark.eventLog.compress  true

配置log4j.properties 文件 [可选配置]

# 1. 改名
mv log4j.properties.template log4j.properties# 将第19行的INFO 改为WARN

将Spark安装文件夹 分发到其它的服务器上

scp -r /opt/module/spark-2.1.1-bin-hadoop2.7 slave1:/opt/module/
scp -r /opt/module/spark-2.1.1-bin-hadoop2.7 slave2:/opt/module/

检查每台机器的环境变量

sbin/start-history-server.sh

安装flink

tar -zxvf flink-1.10.2-bin-scala_2.12 -C /opt/module

配置 vi flink-conf.yaml

# 配置Master的机器名(IP地址)
jobmanager.rpc.address: master
# 配置每个taskmanager生成的临时文件夹
taskmanager.tmp.dirs: /opt/module/flink-1.6.0/tmp

vi slaves

master
slave1
slave2

使用scp命令分发flink到其他节点

scp -r /opt/module/flink-1.10.2/ slave1:/opt/module/
scp -r /opt/module/flink-1.10.2/ slave2:/opt/module/

启动Flink集群

bin/start-cluster.sh

Flink web界面

http://192.168.88.154:8081/#/overview

这篇关于河北省技能大赛-大数据赛项环境搭建的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/382162

相关文章

Redis的数据过期策略和数据淘汰策略

《Redis的数据过期策略和数据淘汰策略》本文主要介绍了Redis的数据过期策略和数据淘汰策略,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录一、数据过期策略1、惰性删除2、定期删除二、数据淘汰策略1、数据淘汰策略概念2、8种数据淘汰策略

轻松上手MYSQL之JSON函数实现高效数据查询与操作

《轻松上手MYSQL之JSON函数实现高效数据查询与操作》:本文主要介绍轻松上手MYSQL之JSON函数实现高效数据查询与操作的相关资料,MySQL提供了多个JSON函数,用于处理和查询JSON数... 目录一、jsON_EXTRACT 提取指定数据二、JSON_UNQUOTE 取消双引号三、JSON_KE

Python给Excel写入数据的四种方法小结

《Python给Excel写入数据的四种方法小结》本文主要介绍了Python给Excel写入数据的四种方法小结,包含openpyxl库、xlsxwriter库、pandas库和win32com库,具有... 目录1. 使用 openpyxl 库2. 使用 xlsxwriter 库3. 使用 pandas 库

本地搭建DeepSeek-R1、WebUI的完整过程及访问

《本地搭建DeepSeek-R1、WebUI的完整过程及访问》:本文主要介绍本地搭建DeepSeek-R1、WebUI的完整过程及访问的相关资料,DeepSeek-R1是一个开源的人工智能平台,主... 目录背景       搭建准备基础概念搭建过程访问对话测试总结背景       最近几年,人工智能技术

SpringBoot定制JSON响应数据的实现

《SpringBoot定制JSON响应数据的实现》本文主要介绍了SpringBoot定制JSON响应数据的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们... 目录前言一、如何使用@jsonView这个注解?二、应用场景三、实战案例注解方式编程方式总结 前言

使用Python在Excel中创建和取消数据分组

《使用Python在Excel中创建和取消数据分组》Excel中的分组是一种通过添加层级结构将相邻行或列组织在一起的功能,当分组完成后,用户可以通过折叠或展开数据组来简化数据视图,这篇博客将介绍如何使... 目录引言使用工具python在Excel中创建行和列分组Python在Excel中创建嵌套分组Pyt

在Rust中要用Struct和Enum组织数据的原因解析

《在Rust中要用Struct和Enum组织数据的原因解析》在Rust中,Struct和Enum是组织数据的核心工具,Struct用于将相关字段封装为单一实体,便于管理和扩展,Enum用于明确定义所有... 目录为什么在Rust中要用Struct和Enum组织数据?一、使用struct组织数据:将相关字段绑

在Mysql环境下对数据进行增删改查的操作方法

《在Mysql环境下对数据进行增删改查的操作方法》本文介绍了在MySQL环境下对数据进行增删改查的基本操作,包括插入数据、修改数据、删除数据、数据查询(基本查询、连接查询、聚合函数查询、子查询)等,并... 目录一、插入数据:二、修改数据:三、删除数据:1、delete from 表名;2、truncate

Java实现Elasticsearch查询当前索引全部数据的完整代码

《Java实现Elasticsearch查询当前索引全部数据的完整代码》:本文主要介绍如何在Java中实现查询Elasticsearch索引中指定条件下的全部数据,通过设置滚动查询参数(scrol... 目录需求背景通常情况Java 实现查询 Elasticsearch 全部数据写在最后需求背景通常情况下

5分钟获取deepseek api并搭建简易问答应用

《5分钟获取deepseekapi并搭建简易问答应用》本文主要介绍了5分钟获取deepseekapi并搭建简易问答应用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1、获取api2、获取base_url和chat_model3、配置模型参数方法一:终端中临时将加