HDFS centralized cache management

2024-06-04 00:58

本文主要是介绍HDFS centralized cache management,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


Hadoop 2.3.0解决了如下几个问题:

  1. 可以指定自己的热点数据常存内存;
  2.  NameNode  manage centralized cache;
  3.   without DataNode OS buffer cache to saving resoureces;
  4. speed up HDFS client read .when the block cache in memory ,directly using zero-copy read from cache pass thougth hard  I/O、checksum.
下面内容是参考

cache directive: 表示要被cache到内存的文件或者目录。 
cache pool: 用于管理一系列的cache directive,类似于命名空间

具体操作:

[root@HDP01 ~]# 
[root@HDP01 ~]# hdfs cacheadmin -addPool financial
AccessControlException: Access denied for user root. Superuser privilege is required
[root@HDP01 ~]# 
[root@HDP01 ~]# su hdfds
su: user hdfds does not exist
[root@HDP01 ~]# su hdfs
[hdfs@HDP01 root]$ hdfs cacheadmin -addPool financial
Successfully added cache pool financial.
[hdfs@HDP01 root]$ exit
exit
[root@HDP01 ~]# hdfs cacheadmin -addDirective -path /test/install.log -pool financial -replication 1
AccessControlException: Permission denied while accessing pool financial: user root does not have WRITE permissions.
[root@HDP01 ~]# 
[root@HDP01 ~]# su hdfs
[hdfs@HDP01 root]$ hdfs cacheadmin -addDirective -path /test/install.log -pool financial -replication 1
Added cache directive 1
[hdfs@HDP01 root]$ 
[hdfs@HDP01 root]$ hdfs cacheadmin -listPools
Found 1 result.
NAME       OWNER  GROUP   MODE            LIMIT  MAXTTL
financial  hdfs   hadoop  rwxr-xr-x   unlimited   never
[hdfs@HDP01 root]$ 
[hdfs@HDP01 root]$ hdfs cacheadmin -listPools
Found 1 result.
NAME       OWNER  GROUP   MODE            LIMIT  MAXTTL
financial  hdfs   hadoop  rwxr-xr-x   unlimited   never
[hdfs@HDP01 root]$ 
[hdfs@HDP01 root]$ hdfs cacheadmin -listDirectives
Found 1 entryID POOL        REPL EXPIRY  PATH              1 financial      1 never   /test/install.log 
[hdfs@HDP01 root]$



centralized cachedistributed cache的区别:

  1. distributed cache:disk locality
  2. centralized cache:memory locality


这篇关于HDFS centralized cache management的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1028615

相关文章

SpringBoot操作spark处理hdfs文件的操作方法

《SpringBoot操作spark处理hdfs文件的操作方法》本文介绍了如何使用SpringBoot操作Spark处理HDFS文件,包括导入依赖、配置Spark信息、编写Controller和Ser... 目录SpringBoot操作spark处理hdfs文件1、导入依赖2、配置spark信息3、cont

使用Spring Cache时设置缓存键的注意事项详解

《使用SpringCache时设置缓存键的注意事项详解》在现代的Web应用中,缓存是提高系统性能和响应速度的重要手段之一,Spring框架提供了强大的缓存支持,通过​​@Cacheable​​、​​... 目录引言1. 缓存键的基本概念2. 默认缓存键生成器3. 自定义缓存键3.1 使用​​@Cacheab

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

HDFS—集群扩容及缩容

白名单:表示在白名单的主机IP地址可以,用来存储数据。 配置白名单步骤如下: 1)在NameNode节点的/opt/module/hadoop-3.1.4/etc/hadoop目录下分别创建whitelist 和blacklist文件 (1)创建白名单 [lytfly@hadoop102 hadoop]$ vim whitelist 在whitelist中添加如下主机名称,假如集群正常工作的节

argodb自定义函数读取hdfs文件的注意点,避免FileSystem已关闭异常

一、问题描述 一位同学反馈,他写的argo存过中调用了一个自定义函数,函数会加载hdfs上的一个文件,但有些节点会报FileSystem closed异常,同时有时任务会成功,有时会失败。 二、问题分析 argodb的计算引擎是基于spark的定制化引擎,对于自定义函数的调用跟hive on spark的是一致的。udf要通过反射生成实例,然后迭代调用evaluate。通过代码分析,udf在

安装SQL2005后SQL Server Management Studio 没有出来的解决方案

一种情况,在安装 sqlServer2005 时 居然出现两个警告: 1 Com+ 目录要求 2 Edition change check 郁闷!网上说出现两个警告,是肯定装不成功的!我抱着侥幸的态度试了下,成功了。 安装成功后,正准备 “ 仅工具、联机丛书和示例(T)” 但是安装不了,他提示我“工作站组件”安装过了对现有组件无法更新或升级。 解决办法: 1 打开“控

SIGMOD-24概览Part7: Industry Session (Graph Data Management)

👇BG3: A Cost Effective and I/O Efficient Graph Database in ByteDance 🏛机构:字节 ➡️领域: Information systems → Data management systemsStorage management 📚摘要:介绍了字节新提出的ByteGraph 3.0(BG3)模型,用来处理大规模图结构数据 背景

[项目][CMP][Thread Cache]详细讲解

目录 1.设计&结构2.申请内存3.释放内存4.框架 1.设计&结构 Thread Cache是哈希桶结构,每个桶是一个按桶位置映射大小的内存块对象的自由链表 每个线程都会有一个Thread Cache对象,这样每个线程在这里获取对象和释放对象时是无锁的 TLS – Thread Local Strorage Linux gcc下TLSWindows vs下TLS

[项目][CMP][Central Cache]详细讲解

目录 1.设计&结构2.申请内存3.释放内存4.框架 1.设计&结构 Central Cache也是一个哈希桶结构,它的哈希桶的映射关系跟Thread Cache是一样的不同的是它的每个哈希桶位置挂的是SpanList链表结构(带头双向循环链表),不过每个映射桶下面的span中的大内存块被按映射关系切成了一个个小内存块对象挂在span的自由链表中 8Byte映射位置下面挂的是

【hadoop Sqoop】Sqoop从mysql导数据到hdfs

1.下载sqoop安装包 wget https://mirrors.tuna.tsinghua.edu.cn/apache/sqoop/1.4.6/sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 2.解压安装包 tar -xzvf /sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 3.配置hadoop mv s