HDFS centralized cache management

2024-06-04 00:58

本文主要是介绍HDFS centralized cache management,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


Hadoop 2.3.0解决了如下几个问题:

  1. 可以指定自己的热点数据常存内存;
  2.  NameNode  manage centralized cache;
  3.   without DataNode OS buffer cache to saving resoureces;
  4. speed up HDFS client read .when the block cache in memory ,directly using zero-copy read from cache pass thougth hard  I/O、checksum.
下面内容是参考

cache directive: 表示要被cache到内存的文件或者目录。 
cache pool: 用于管理一系列的cache directive,类似于命名空间

具体操作:

[root@HDP01 ~]# 
[root@HDP01 ~]# hdfs cacheadmin -addPool financial
AccessControlException: Access denied for user root. Superuser privilege is required
[root@HDP01 ~]# 
[root@HDP01 ~]# su hdfds
su: user hdfds does not exist
[root@HDP01 ~]# su hdfs
[hdfs@HDP01 root]$ hdfs cacheadmin -addPool financial
Successfully added cache pool financial.
[hdfs@HDP01 root]$ exit
exit
[root@HDP01 ~]# hdfs cacheadmin -addDirective -path /test/install.log -pool financial -replication 1
AccessControlException: Permission denied while accessing pool financial: user root does not have WRITE permissions.
[root@HDP01 ~]# 
[root@HDP01 ~]# su hdfs
[hdfs@HDP01 root]$ hdfs cacheadmin -addDirective -path /test/install.log -pool financial -replication 1
Added cache directive 1
[hdfs@HDP01 root]$ 
[hdfs@HDP01 root]$ hdfs cacheadmin -listPools
Found 1 result.
NAME       OWNER  GROUP   MODE            LIMIT  MAXTTL
financial  hdfs   hadoop  rwxr-xr-x   unlimited   never
[hdfs@HDP01 root]$ 
[hdfs@HDP01 root]$ hdfs cacheadmin -listPools
Found 1 result.
NAME       OWNER  GROUP   MODE            LIMIT  MAXTTL
financial  hdfs   hadoop  rwxr-xr-x   unlimited   never
[hdfs@HDP01 root]$ 
[hdfs@HDP01 root]$ hdfs cacheadmin -listDirectives
Found 1 entryID POOL        REPL EXPIRY  PATH              1 financial      1 never   /test/install.log 
[hdfs@HDP01 root]$



centralized cachedistributed cache的区别:

  1. distributed cache:disk locality
  2. centralized cache:memory locality


这篇关于HDFS centralized cache management的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1028615

相关文章

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

argodb自定义函数读取hdfs文件的注意点,避免FileSystem已关闭异常

一、问题描述 一位同学反馈,他写的argo存过中调用了一个自定义函数,函数会加载hdfs上的一个文件,但有些节点会报FileSystem closed异常,同时有时任务会成功,有时会失败。 二、问题分析 argodb的计算引擎是基于spark的定制化引擎,对于自定义函数的调用跟hive on spark的是一致的。udf要通过反射生成实例,然后迭代调用evaluate。通过代码分析,udf在

安装SQL2005后SQL Server Management Studio 没有出来的解决方案

一种情况,在安装 sqlServer2005 时 居然出现两个警告: 1 Com+ 目录要求 2 Edition change check 郁闷!网上说出现两个警告,是肯定装不成功的!我抱着侥幸的态度试了下,成功了。 安装成功后,正准备 “ 仅工具、联机丛书和示例(T)” 但是安装不了,他提示我“工作站组件”安装过了对现有组件无法更新或升级。 解决办法: 1 打开“控

SIGMOD-24概览Part7: Industry Session (Graph Data Management)

👇BG3: A Cost Effective and I/O Efficient Graph Database in ByteDance 🏛机构:字节 ➡️领域: Information systems → Data management systemsStorage management 📚摘要:介绍了字节新提出的ByteGraph 3.0(BG3)模型,用来处理大规模图结构数据 背景

[项目][CMP][Thread Cache]详细讲解

目录 1.设计&结构2.申请内存3.释放内存4.框架 1.设计&结构 Thread Cache是哈希桶结构,每个桶是一个按桶位置映射大小的内存块对象的自由链表 每个线程都会有一个Thread Cache对象,这样每个线程在这里获取对象和释放对象时是无锁的 TLS – Thread Local Strorage Linux gcc下TLSWindows vs下TLS

[项目][CMP][Central Cache]详细讲解

目录 1.设计&结构2.申请内存3.释放内存4.框架 1.设计&结构 Central Cache也是一个哈希桶结构,它的哈希桶的映射关系跟Thread Cache是一样的不同的是它的每个哈希桶位置挂的是SpanList链表结构(带头双向循环链表),不过每个映射桶下面的span中的大内存块被按映射关系切成了一个个小内存块对象挂在span的自由链表中 8Byte映射位置下面挂的是

【hadoop Sqoop】Sqoop从mysql导数据到hdfs

1.下载sqoop安装包 wget https://mirrors.tuna.tsinghua.edu.cn/apache/sqoop/1.4.6/sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 2.解压安装包 tar -xzvf /sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 3.配置hadoop mv s

【Hadoop|HDFS篇】NameNode和SecondaryNameNode

1. NN和2NN的工作机制 思考:NameNode中的元数据是存储在哪里的? 首先,我们做个假设,如果存储在NameNode节点的磁盘中,因为经常需要进行随机访 问,还有响应客户请求,必然是效率过低。因此,元数据需要存放在内存中。但如果只存在 内存中,一旦断电,元数据丢失,整个集群就无法工作了。因此产生在磁盘中备份元数据的 Fslmage。 这样又会带来新的问题,当在内存中的元数据更新时,如

【Hadoop|HDFS篇】DataNode

1. DataNode的工作机制 1)一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。 2)DataNode启动后向NameNode注册,通过后,周期性(6h)的向NameNode上报所有块信息。 DN向NN汇报当前解读信息的时间间隔,默认6小时。 DN扫描自己节点块信息列表的时间,默认为