如何打通HDFS任督二脉

2023-12-17 09:20
文章标签 hdfs 打通 任督 二脉

本文主要是介绍如何打通HDFS任督二脉,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

用HDFS写数据流程图打通HDFS任督二脉

image-20211110151108137

文字详解

1)客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
(2NameNode返回是否可以上传。
(3)客户端请求第一个 Block上传到哪几个DataNode服务器上。
(4NameNode返回3DataNode节点,分别为dn1、dn2、dn3。
(5)客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
(6)dn1向下一个dn请求,逐级进行。
(7)dn1、dn2、dn3逐级应答客户端。
(8)客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答。
(9)当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-8步)。

角色

  1. NameNode(nn):就是master,它是一个管理者。有以下职能:
    1. 管理HDFS的名称空间;
    2. 配置副本策略;
    3. 管理数据块映射信息;
    4. 处理客户端读写请求;
  2. DataNode(dn):就是slave。nn下达命令,dn执行实际的操作。职能如下:
    1. 存储数据块
    2. 执行数据块的读/写操作。
  3. Client:客户端:
    1. 文件切分。文件上传HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;
    2. 与nn交互,获取文件的位置信息;
    3. 与dn交互,读取或写入数据;
    4. 提供一些命令来管理HDFS,比如nn格式化
    5. 可以通过一些命令来访问HDFS,比如对HDFS增删改查操作
  4. Secondary Namenode(2nn):
    1. 辅助nn,分担其工作量,比如定期合并Fsimage和Edits,并推送给nn;
    2. 在紧急情况下,可辅助恢复nn。

开始打通……

①HDFS文件块大小

image-20211109100134636

块不宜过大也不宜过小,如果过大会导致加载时间变长, 磁盘传输数据的时间明显大于寻址时间,导致程序处理这块数据时非常慢。

过小导致nn存储元数据信息过多,增加寻址时间

当寻址时间确定后,它的最佳传输时间也被确定,这时候就可以根据磁盘数据传输速率确定数据块大小了!


②机架感知(副本存储节点选择)

image-20211109111747531


③DATANODE

一个datanode包含一或多个数据块(block), 每个block包含两个文件——数据本身、元数据(数据长度、校验和、时间戳)。

工作机制

datanode启动后向namenode注册。
namenode返回注册成功。
DN定期(默认1h)向NN发送所有块信息。
DN每三秒待会从NN下达给自己的指令。
若NN10min30s未接收到DN的心跳,则认为该节点不可用。

④网络拓扑—节点距离计算

在HDFS写数据的过程中,NameNode会选择距离待上传数据最近距离的DataNode接收数据。那么这个最近距离怎么计算呢?一张图回答。

image-20211109110921810

节点距离:两个节点到达最近的共同祖先的距离总和,也可以简单理解为一个节点到达另一个节点需要的步骤。

同节点:不需要移动,距离0
同机架不同节点:节点1先到机架上再从机架去找另一个节点
同一集群不同机架:节点1先到机架再到集群找到另一个节点所在机架,去对应机架,去对应节点。......

Lastbutnotleast的知识点

nn和2nn工作机制

一个问题:nn中的元数据是存储在哪里的?

假设在nn节点所在磁盘中,因为经常需要进行随机访问,还要响应客户请求,效率会很低,因此元数据需要存放在内存中。但如果只存放在内存中,一旦断电,元数据就会丢失从而导致集群无法工作。因此**在磁盘中备份元数据的Fsimage**.这样会带来新的问题:当在内存中的元数据更新时,**如果同时更新Fsimage,会导致效率过低**,但如果不更新就会发生一致性问题,一旦nn节点断电数据就会丢失。因此,**引入Edits文件(只进行追加操作)效率很高**。每当元数据有更新或者添加元数据时,修改内存中的元数据并追加到Edits中,通过Fsimage和Edits的合并合成元数据,这样就算nn节点断电也没关系。旦nn节点断电数据就会丢失。因此,**引入Edits文件(只进行追加操作)效率很高**。每当元数据有更新或者添加元数据时,修改内存中的元数据并追加到Edits中,通过Fsimage和Edits的合并合成元数据,这样就算nn节点断电也没关系。但是,如果长时间添加数据到Edits中,会导致该文件数据过大,效率降低,而且一旦断电,恢复元数据需要的时间过长。因此,需要定期进行FsImage和Edits的合并,如果这个操作由NameNode节点完成,又会效率过低。因此,引入一个新的节点SecondaryNamenode,专门用于FsImage和Edits的合并。
工作机制:
1)第一阶段:NameNode启动
(1)第一次启动NameNode格式化后,创建Fsimage和Edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。
(2)客户端对元数据进行增删改的请求。
(3)NameNode记录操作日志,更新滚动日志。
(4)NameNode在内存中对元数据进行增删改。
2)第二阶段:Secondary NameNode工作
(1)Secondary NameNode询问NameNode是否需要CheckPoint。直接带回NameNode是否检查结果。
(2)Secondary NameNode请求执行CheckPoint。
(3)NameNode滚动正在写的Edits日志。
(4)将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。
(5)Secondary NameNode加载编辑日志和镜像文件到内存,并合并。

这篇关于如何打通HDFS任督二脉的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/503868

相关文章

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

argodb自定义函数读取hdfs文件的注意点,避免FileSystem已关闭异常

一、问题描述 一位同学反馈,他写的argo存过中调用了一个自定义函数,函数会加载hdfs上的一个文件,但有些节点会报FileSystem closed异常,同时有时任务会成功,有时会失败。 二、问题分析 argodb的计算引擎是基于spark的定制化引擎,对于自定义函数的调用跟hive on spark的是一致的。udf要通过反射生成实例,然后迭代调用evaluate。通过代码分析,udf在

数据洞察打通全域社群

回想企业信息化开始大规模兴起时,除了互联网的助推外,似乎数据分析的出现让越来越多的决策层看到了 IT 的力量,也意识到 IT 部门存在的重要意义,IT 对于企业的决策和成本的管控有着非常重要的作用。随着这种科技浪潮的兴起,企业里有越多越的领域和部门开始依赖 IT,依赖数据分析,市场营销也不例外。 最近,在青云QingCloud AppCenter 上线的社群 CCRM-Communet Cu

【hadoop Sqoop】Sqoop从mysql导数据到hdfs

1.下载sqoop安装包 wget https://mirrors.tuna.tsinghua.edu.cn/apache/sqoop/1.4.6/sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 2.解压安装包 tar -xzvf /sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 3.配置hadoop mv s

【Hadoop|HDFS篇】NameNode和SecondaryNameNode

1. NN和2NN的工作机制 思考:NameNode中的元数据是存储在哪里的? 首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访 问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在 内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的 Fslmage。 这样又会带来新的问题,当在内存中的元数据更新时,如

【Hadoop|HDFS篇】DataNode

1. DataNode的工作机制 1)一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。 2)DataNode启动后向NameNode注册,通过后,周期性(6h)的向NameNode上报所有块信息。 DN向NN汇报当前解读信息的时间间隔,默认6小时。 DN扫描自己节点块信息列表的时间,默认为

Flink读取kafka数据并以parquet格式写入HDFS

《2021年最新版大数据面试题全面开启更新》 《2021年最新版大数据面试题全面开启更新》 大数据业务场景中,经常有一种场景:外部数据发送到kafka中,flink作为中间件消费kafka数据并进行业务处理;处理完成之后的数据可能还需要写入到数据库或者文件系统中,比如写入hdfs中; 目前基于spark进行计算比较主流,需要读取hdfs上的数据,可以通过读取parquet:spark.read

MySQL Binlog同步HDFS的方案

这个问题我想只要是在做数据开发的,有一定数据实时性要求、需要做数据的增量同步的公司都会遇到。 19年的时候我曾经写过一点canal的文章。 现在你只要看这个文章就可以了。 这篇文章是一个读者推荐给我的,原地址:https://dwz.cn/XYdYpNiI,作者:混绅士 我对其中的一些内容做了修改。 关系型数据库和Hadoop生态的沟通越来越密集,时效要求也越来越高。本篇就来调研下实时抓取MyS

打通实时流处理log4j-flume-kafka-structured-streaming

大数据技术与架构 点击右侧关注,大数据开发领域最强公众号! 暴走大数据 点击右侧关注,暴走大数据! 模拟产生log4j日志 jar包依赖 pom.xml 12345678910111213<dependency><groupId>log4j</groupId><artifactId>log4j</artifactId></dependency><depe