incron 触发式计划任务--RHEL6.5

2024-05-15 17:08

本文主要是介绍incron 触发式计划任务--RHEL6.5,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. 原理:

  文件在改变后文件的inode信息会随之发生改变,incron分析被监控文件的inode信息,当检测到用户设置的事件类型对应的inode信息发生改变时触发用户指定的任务。

  事件类型:

  IN_ACCESS: 文件被访问;
  IN_MODIFY: 文件被修改;
  IN_ATTRIB: 文件属性被修改,如 chmod、 chown、 touch 等;
  IN_CLOSE_WRITE: 可写文件被关闭;
  IN_CLOSE_NOWRITE: 不可写文件被关闭;
  IN_CLOSE: 文件被关闭,等同于(IN_CLOSE_WRITE | IN_CLOSE_NOWRITE) ;
  IN_OPEN: 文件被打开;
  IN_MOVED_FROM: 文件被移走,如 mv ;
  IN_MOVED_TO: 文件被移来,如 mv、 cp ;
  IN_MOVE: 文件被移动,等同于(IN_MOVED_FROM | IN_MOVED_TO);
  IN_CREATE: 创建新文件;
  IN_DELETE: 文件被删除,如 rm ;
  IN_DELETE_SELF: 自删除,即一个可执行文件在执行时删除自己;
  IN_MOVE_SELF: 自移动,即一个可执行文件在执行时移动自己;
  IN_ONESHOT: 仅监控一次事件;
  IN_ONLYDIR: 只监控目录;
  IN_UNMOUNT: 宿主文件系统被 umount;

2. 安装

  此处以rpm包的方式进行安装。

  下载incron的rpm安装包,以incron-0.5.9-1.el6.x86_64.rpm为例。

  yum install incron-0.5.9-1.el6.x86_64.rpm -y                 #安装

3. 设置触发

  touch /test.sh                    #新建事件出发后执行的脚本

  chmod u+x test.sh

  写入以下内容:

  touch /root/a.txt                #当事件被触发时会执行脚本test.sh,从而在/root下新建文件a.txt

  incrontab -e                     #设置触发任务

  / IN_CREATE /root/test.sh   #触发任务

  设置完后保存退出。

  service incrond start      #启动incron服务

4. 验证是否可触发

  touch /b.txt                        #根目录下新建文件b.txt

  结果:触发事件IN_CREATE, 在/root下有文件a.txt被新建。 

 

 

这篇关于incron 触发式计划任务--RHEL6.5的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/992415

相关文章

如何设置windows计划任务

如何设置windows计划任务 前言:在工作过程中写了一个python脚本,用于调用jira接口查询bug单数量,想要在本地定时任务执行,每天发送到钉钉群提醒,写下操作步骤用于记录。 1. 准备 Python 脚本 确保你的 Python 脚本已经保存到一个文件,比如 jira_reminder.py。 2. 创建批处理文件 为了方便任务计划程序运行 Python 脚本,创建一个批处理文

Python临时计划

时间:6月——9月        入门

linux cron /etc/crontab 及 /var/spool/cron/$USER 中定义定时任务

简介 定时任务在linux上主要体现在两个地方,一个是/etc/crontab ,另一个就是定义了任务计划的用户/var/spool/cron/$USER 1、crontab -e 或者直接编辑/etc/crontab文件,这种方式用的人比较多,/etc/crontab是系统调度的配置文件,只有root用户可以使用,使用时需root权限,而且必须指定运行用户,才会执行 * * * * * *

任务5.1 初识Spark Streaming

实战概述:使用Spark Streaming进行词频统计 1. 项目背景与目标 背景: Spark Streaming是Apache Spark的流处理框架,用于构建可伸缩、高吞吐量的实时数据处理应用。目标: 实现一个实时词频统计系统,能够处理流式数据并统计文本中的单词出现频率。 2. 技术要点 Spark Streaming集成: 与Spark生态的其他组件如Spark SQL、ML

【FreeRTOS】任务管理与调度

文章目录 调度:总结 调度: 相同优先级的任务轮流运行最高优先级的任务先运行 可以得出结论如下: a 高优先级的任务在运行,未执行完,更低优先级的任务无法运行b 一旦高优先级任务就绪,它会马上运行(假设厨房着火了,会马上去灭火)c 如果最高优先级的任务有多个,他们轮流运行 他们都是使用链表进行管理 打开CubeMX,最高优先级56 56个List, Rad

biostar handbook: 第五周笔记汇总+第六周任务布置

简单总结下第五周的笔记: biostarhandbook(五)|序列从何而来和质量控制YXF-测序仪和质量控制Biostar学习笔记(5)测序平台、测序原理及质量控制Biostar第六课 测序仪和QC 顺便发布第六周的任务: 第六周的任务是第十章和第十一章。其中第十一章介绍的是序列模式,是对正则表达式的温故知新。第十一章则是开始序列分析的重要一步:序列联配。任务如下: 什么是正则表达式什么

biostar handbook: 第四周笔记汇总+第五周任务布置

不知不觉已经过去了四周,这个系列的开篇语写于2017年10月14日,距离今天差不多是一个月的时间了。这个月的时间学的内容并不算多,大致也就是如下几个内容: *nux基础: 这个尤为重要,学会了*nix(Linux或unix)之后,如果能够在日常科研生活中进行使用,那么你的效率将会大大提高。数据格式: 数据的保存具有一定的格式,处理数据的前提在于知己知彼,这样才能选择合适的工具。这个部分内容包括知

biostar handbook: 第三周笔记汇总+第四周任务布置

就目前来看,这一周主要以补交上次作业为主,所以上一周的总结增加了很多新内容。但是关于本体论和富集分析,大家还是有点小困难。当然我自己交东西也慢了很多,因为时间也总是不太够,完全靠周末挤出来。 第三周笔记汇总如下 Biostar学习笔记(3)Gene set analysis related topics.本体论biostarhandboo(四)|本体论和功能分析基因本体论 第四周作业发布

biostar handbook: 第二周笔记汇总+第三周任务布置

第二周已经结束了,我不确定大家对Linux到底了解到了什么程度,但是我觉得再给一周时间让初学者去熟悉Linux肯定是必要的。于是这一周的任务不会太难,只需要让大家去理解本体论(ontology)。 笔记汇总 这周有一些小伙伴开始遭遇人生抉择,有一些则是要出差赶路,所以上交作业不算太多。可能大家对自己的要求有点高了,其实我一直强调的是笔记的不断迭代,只要你写了一点内容就可以发出来,后来不断修改,