关于/proc/fs/lustre

2024-02-22 01:52
文章标签 fs proc lustre

本文主要是介绍关于/proc/fs/lustre,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

/proc/fs

/proc/fs 是一个特殊的虚拟文件系统目录,在 Linux 系统中用于提供有关文件系统的信息和控制接口。这些信息和控制接口可用于监视和管理系统中各种文件系统的状态和行为。

  • ext4/:包含有关 ext4 文件系统的信息和控制接口。
  • xfs/:包含有关 XFS 文件系统的信息和控制接口。
  • btrfs/:包含有关 Btrfs 文件系统的信息和控制接口。
  • lustre/:包含有关 Lustre 文件系统的信息和控制接口。

/proc/fs/lustre

/proc/fs/lustre 是 Lustre 文件系统在 Linux 系统中的一个虚拟文件系统,用于提供有关 Lustre 文件系统运行状态和配置的信息。在 Lustre 文件系统中,这些子目录分别代表不同的组件或功能:

  • lmv:Lustre Metadata Virtualization,用于处理元数据的虚拟化层。
  • lov:Lustre Object Storage Virtualization,用于管理对象存储的虚拟化层。
  • mdc:Metadata Controller,负责管理元数据的服务器。
  • osc:Object Storage Controller,负责管理对象存储的服务器。
  • sptlrpc:SPTL RPC,指的是 Lustre 中的一种特定类型的 RPC(远程过程调用),用于客户端和服务器之间的通信。

这些组件共同构成了 Lustre 文件系统的核心部分,负责处理元数据、数据存储和通信等功能。在 /proc/fs/lustre 目录中,您可以查看这些组件的一些状态和统计信息,以便监视 Lustre 文件系统的运行状况。

/proc/fs/lustre/lmv/xxfs-clilmv-xxx

md_stats 和 target_obd 是 Lustre 文件系统中/proc/fs/lustre/lmv/xxfs-clilmv-xxx目录下的两个文件,提供有关 Metadata Controller (MDC) 的信息。MDC 是 Lustre 文件系统中负责管理元数据的组件之一。

  • md_stats 文件包含有关 MDC 的统计信息,如元数据操作的数量、性能指标等。
    • snapshot_time:快照时间,以秒和纳秒为单位。
    • start_time:开始时间,以秒和纳秒为单位。
    • elapsed_time:经过的时间,以秒和纳秒为单位。
    • close:关闭文件的次数。
    • create:创建文件的次数。
    • getattr:获取文件属性的次数。
    • intent_lock:意向锁的次数,用于文件访问控制。
    • link:创建硬链接的次数。
    • rename:重命名文件的次数。
    • setattr:设置文件属性的次数。
    • fsync:强制将文件写入磁盘的次数。
    • read_page:读取文件页的次数。
    • unlink:删除文件的次数。
    • setxattr:设置扩展属性的次数。
    • getxattr:获取扩展属性的次数。
    • intent_getattr_async:异步获取文件属性的次数。
    • revalidate_lock:重新验证锁定的次数,用于确保文件访问的正确性
  • target_obd 文件包含有关 MDT的状态信息。
    • 0: xxfs-MDT0000_UUID ACTIVE
    • 1: xxfs-MDT0001_UUID ACTIVE
    • 2: xxfs-MDT0002_UUID ACTIVE
    • 3: xxfs-MDT0003_UUID ACTIVE

/proc/fs/lustre/lov/xxfs-clilov-xxx

/proc/fs/lustre/lov/xxfs-clilov-xxx目录包含了与 Lustre 文件系统中的对象存储池(LOV:Lustre Object View)相关的信息。LOV 是 Lustre 文件系统中负责管理文件数据的组件之一,它将文件数据分布在多个 OST(Object Storage Target)上,以实现高性能和可扩展性。

  • pools:包含有关对象存储池(LOV)的信息,如池中的 OST 列表、条带大小等。
  • target_obd:包含有关 OST的状态信息。
    • 0: xxfs-OST0000_UUID ACTIVE
    • 1: xxfs-OST0001_UUID ACTIVE
    • 2: xxfs-OST0002_UUID ACTIVE
    • 3: xxfs-OST0003_UUID ACTIVE
    • 4: xxfs-OST0004_UUID ACTIVE
    • 5: xxfs-OST0005_UUID ACTIVE
    • 6: xxfs-OST0006_UUID ACTIVE
    • 7: xxfs-OST0007_UUID ACTIVE
    • 8: xxfs-OST0008_UUID ACTIVE
    • 9: xxfs-OST0009_UUID ACTIVE
    • 10: xxfs-OST000a_UUID ACTIVE

/proc/fs/lustre/mdc/xxfs-MDT0000-mdc-xxx

通常用于存储与 Lustre 文件系统中的 Metadata Controller(MDC)相关的信息。MDC 是 Lustre 文件系统中负责管理元数据的组件,包括文件和目录的元数据信息。元数据包括文件名、权限、所有者、大小、创建时间等信息。

  • checksum_type:数据校验类型,用于确保数据在传输过程中的完整性。
  • max_dirty_mb:最大脏数据量,表示允许在 MDC 上保留的尚未写入到存储设备的脏数据的最大量。
  • mdc_dom_min_repsize:MDC 的最小 DOM 复制大小,DOM 是 Lustre 文件系统中用于复制元数据的单位。
  • mds_server_uuid:Metadata Server (MDS) 的唯一标识符。
  • rpc_stats:RPC 统计信息,包括 RPC 的数量和性能指标。
  • unstable_stats:不稳定的状态统计信息。
  • connect_flags:连接标志,表示与其他 Lustre 组件建立连接时的配置标志。
  • max_pages_per_rpc:每个 RPC 允许的最大页面数。
  • mdc_lsom:MDC 的 LSOM(Log-Structured Object Manager)配置。
  • md_stats:MD(Metadata Device)的统计信息。
  • state:MDC 的状态。
  • import:导入相关信息。
  • mdc_cached_mb:MDC 缓存的内存量。
  • mdc_stats:MDC 的统计信息。
  • pinger_recov:Pinger 恢复相关信息。
  • timeouts:超时次数。

/proc/fs/lustre/osc/xxfs-OST0000-osc-xxx

/proc/fs/lustre/osc 是 Lustre 文件系统中 Object Storage Client (OSC) 的相关信息所在的目录。OSC 负责管理文件数据的读取和写入操作,与 Metadata Server (MDS) 和 Object Storage Server (OSS) 进行通信,并处理数据的条带化 (striping) 和复制等操作。

  • checksum_type:数据校验类型,用于确保数据在传输过程中的完整性。
  • cur_grant_bytes:当前授予的字节数,表示 OSC 目前被授予的写入权限。
  • max_pages_per_rpc:每个 RPC 允许的最大页面数。
  • osc_stats:OSC 的统计信息,包括读取和写入操作的次数、字节数等。
  • pinger_recov:Pinger 恢复相关信息。
  • state:OSC 的状态。
  • unstable_stats:不稳定的状态统计信息。
  • connect_flags:连接标志,表示与其他 Lustre 组件建立连接时的配置标志。
  • import:导入相关信息。
  • osc_cached_mb:OSC 缓存的内存量。
  • ost_server_uuid:Object Storage Server (OST) 的唯一标识符。
  • rpc_stats:RPC 统计信息,包括 RPC 的数量和性能指标。
  • timeouts:超时次数。

这篇关于关于/proc/fs/lustre的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/733779

相关文章

解决Node.js调用fs.renameSync报错的问题(Error: EXDEV, cross-device link not permitted)

在写一个文件上传的功能时候,调用fs.renameSync方法错误 出错 代码所在如下: 1 function upload(response,request){ 2 console.log("upload called"); 3 var form = new formidable.IncomingForm(); 4 console.log("about t

Linux C 内核编程 /proc 编程例子

直接上代码 proc_demo.c内核版本: 5.4.0-150-generic #include <linux/module.h>#include <linux/sched.h>#include <linux/proc_fs.h>#include <linux/seq_file.h>#include <linux/uaccess.h>#include <linux/slab.h>s

飞速(FS)400G SR4光模块:高速网络应用新选择

飞速(FS)在2024年5月11日推出的400G SR4 QSFP-DD光模块,标志着信息通信技术(ICT)产品及解决方案领域的一个重要进步。这一新产品的推出,将对高速网络的性能和传输效率产生深远的影响。 为满足数据中心和网络基础设施对更高带宽和更快数据传输速率不断增长的需求,400G SR4 QSFP-DD光模块应运而生。随着云计算、高性能计算和大数据分析等技术的快速发展,现有网络框架面临着数

linux系统下从/proc中找回误删除的控制文件

--linux系统下从/proc中找回误删除的控制文件SYS@PROD3> select name from v$controlfile;NAME----------------------------------------------------------------------------------------------------/home/oracle/db1/control0

Linux驱动调试中的Debugfs的使用简介 CONFIG_DEBUG_FS 的功能与配置

Linux驱动调试中的Debugfs的使用简介 (2012-03-31 14:14) 在调试linux驱动的时候,可以用debugfs来调试,debugfs类似字符设备驱动一样,甚至更简单,不需要主设备号次设备号等等,只需要实现一个file_operations,然后通过debugfs_create_file就可以在debugfs中建立一个文件结点,就像字符设备驱动那样,只需要对这个文件

Android 启动时判断overlay fs是否挂载

一、背景 Android新版本使用super分区替代原来的system、vendor后,就采用了overlayfs文件系统。这种文件系统在执行adb remount 后,修改system 、vendor分区内容并不是真正存储在原来的位置,而是单独利用super剩余空间或data分区存了一份新的,原来的文件并没有改变。系统使用时判断有overlay的就用新的,没有就是有原文件。具体概念可查看htt

深度全面讲解fs.readFileSync:Node.js中的同步文件读取

在Node.js中,fs模块是用于与文件系统交互的核心模块之一。它提供了一系列的方法用于文件的读取、写入、删除等操作。其中,fs.readFileSync是一个常用的同步方法,用于读取文件的内容。本文将深度全面讲解fs.readFileSync的使用,包括其语法、参数、返回值以及代码示例。 一、fs.readFileSync的语法 fs.readFileSync方法的语法如下: fs.rea

Linux下/proc目录简介(转)

1. /proc目录 Linux 内核提供了一种通过 /proc 文件系统,在运行时访问内核内部数据结构、改变内核设置的机制。proc文件系统是一个伪文件系统,它只存在内存当中,而不占用外存空间。它以文件系统的方式为访问系统内核数据的操作提供接口。 用户和应用程序可以通过proc得到系统的信息,并可以改变内核的某些参数。由于系统的信息,如进程,是动态改变的,所以用户或应用程序读取proc文件

深入探索fs.WriteStream:Node.js文件写入流的全面解析

在Node.js中,fs模块不仅提供了读取文件的API,还包含了写入文件的工具,其中fs.WriteStream就是一个非常重要的类,用于以流的形式将数据写入文件。本文将全面讲解fs.WriteStream的基本概念、使用方法、事件处理以及高级应用,帮助读者深入理解并掌握这一强大的工具。 一、fs.WriteStream基本概念 fs.WriteStream是stream.Writable的一

BD错误集锦9——查询hive表格时出错:Wrong FS: hdfs://s233/user/../warehouse expected: hdfs://mycluster

集群环境描述:HDFS集群处于HA模式下,同时启动了YARN\JN\KAFKA\ZK。 现象: FAILED: SemanticException Unable to determine if hdfs://s233/user/hive/warehouse/mydb.db/ext_calllogs_in_hbase is encrypted: java.lang.IllegalArgument