计划任务 之 一次性的计划任务

2024-06-11 19:28
文章标签 任务 计划 一次性

本文主要是介绍计划任务 之 一次性的计划任务,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

计划任务

作用:定时自动完成特定的工作

计划任务的分类:

(1)一次性的计划任务

  • 例如下周三对系统的重要文件备份一次

(2)周期性重复计划任务

  • 例如每天晚上12:00备份一次

一次性的任务计划:

  • at
  • batch

周期性计划任务

  • crontab
  • anacron

at一次性任务计划

at 时间ctrl+d 保存退出 

选项:

  • -q:指定任务计划的队列编号
  • -l:显示尚未执行的计划任务(等同于命令atq)
  • -d  num:删除指定编号的计划任务(等同于命令atrm)
  • -c  num:显示指定编号的计划任务的具体的命令
  • -f file time  :从文件中读取要执行的操作

-q:指定任务计划的队列编号 

例子:

-l:显示尚未执行的计划任务(等他于命令atq)

例子:

9:编码 

Tue jun 11  15:45:00  2024:计划任务执行时间

a:队列编号

root:发起计划任务的用户

-d  num:删除指定编号的计划任务(等他于命令atrm)

-c num:显示指定编号的计划任务的具体的命令

-f file time :从文件中读取要执行的操作

从1.txt中读取命令

第一步:创建一个1.txt

vi到1.txt里面写入要执行的命令

第二步:读取1.txt中的命令(16:02执行)

at -f 1.txt 16:02

at计划任务中时间的表达方式:

时间设置:

at允许使用一套相当复杂的指定时间的方法。

  1. 能够接受在当天的hh:mm(小时:分钟)式的时间指定。假如该时间已经过去,那么就放在第二天执行。
  2. 也能够使用midnight(深夜)、noon(中午)、teatime(午茶时间,一般是下午4点)等比较模糊的词语来指定时间。
  3. 用户还能够采用12小时计时制,即在时间后面加上AM(上午)或者PM(下午)来说明是上午还是下午。
  4. 也能够指定命令执行的具体日期,指定格式month  day(月  日)或mm/dd/yy(月/日/年)或dd.mm.yy(日.月.年) 指定的日期必须跟在指定时间后面。
  5. 上面介绍的都是绝对计时法,其实还能使用相对计时法,这对于安排不久就要执行的命令是很有好处的。指定格式为:now + count time-units,now就是当前时间,time-units是时间单位,这里能够是minutes(分钟)、hours(小时)、days(天)、weeks(星期)count是时间的数量,究竟是几天,还有几个小时,等等。
  6. 更有一种计时方法是直接使用today(今天) 、tomorrow(明天) 来指定完成命令的时间。

 特殊方式:

(1)now+5 minutes   5分钟后执行这个计划任务


(2)now+3 days        3天后的现在时间


(3)now+3 weeks      3周


(4)am         上午

  • 4am+1weeks

(5)12:00+1day

/etc/con.deny

黑名单文件(文件中出现的用户不能创建计划任务)

这篇关于计划任务 之 一次性的计划任务的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1052074

相关文章

如何设置windows计划任务

如何设置windows计划任务 前言:在工作过程中写了一个python脚本,用于调用jira接口查询bug单数量,想要在本地定时任务执行,每天发送到钉钉群提醒,写下操作步骤用于记录。 1. 准备 Python 脚本 确保你的 Python 脚本已经保存到一个文件,比如 jira_reminder.py。 2. 创建批处理文件 为了方便任务计划程序运行 Python 脚本,创建一个批处理文

Python临时计划

时间:6月——9月        入门

linux cron /etc/crontab 及 /var/spool/cron/$USER 中定义定时任务

简介 定时任务在linux上主要体现在两个地方,一个是/etc/crontab ,另一个就是定义了任务计划的用户/var/spool/cron/$USER 1、crontab -e 或者直接编辑/etc/crontab文件,这种方式用的人比较多,/etc/crontab是系统调度的配置文件,只有root用户可以使用,使用时需root权限,而且必须指定运行用户,才会执行 * * * * * *

任务5.1 初识Spark Streaming

实战概述:使用Spark Streaming进行词频统计 1. 项目背景与目标 背景: Spark Streaming是Apache Spark的流处理框架,用于构建可伸缩、高吞吐量的实时数据处理应用。目标: 实现一个实时词频统计系统,能够处理流式数据并统计文本中的单词出现频率。 2. 技术要点 Spark Streaming集成: 与Spark生态的其他组件如Spark SQL、ML

【FreeRTOS】任务管理与调度

文章目录 调度:总结 调度: 相同优先级的任务轮流运行最高优先级的任务先运行 可以得出结论如下: a 高优先级的任务在运行,未执行完,更低优先级的任务无法运行b 一旦高优先级任务就绪,它会马上运行(假设厨房着火了,会马上去灭火)c 如果最高优先级的任务有多个,他们轮流运行 他们都是使用链表进行管理 打开CubeMX,最高优先级56 56个List, Rad

biostar handbook: 第五周笔记汇总+第六周任务布置

简单总结下第五周的笔记: biostarhandbook(五)|序列从何而来和质量控制YXF-测序仪和质量控制Biostar学习笔记(5)测序平台、测序原理及质量控制Biostar第六课 测序仪和QC 顺便发布第六周的任务: 第六周的任务是第十章和第十一章。其中第十一章介绍的是序列模式,是对正则表达式的温故知新。第十一章则是开始序列分析的重要一步:序列联配。任务如下: 什么是正则表达式什么

biostar handbook: 第四周笔记汇总+第五周任务布置

不知不觉已经过去了四周,这个系列的开篇语写于2017年10月14日,距离今天差不多是一个月的时间了。这个月的时间学的内容并不算多,大致也就是如下几个内容: *nux基础: 这个尤为重要,学会了*nix(Linux或unix)之后,如果能够在日常科研生活中进行使用,那么你的效率将会大大提高。数据格式: 数据的保存具有一定的格式,处理数据的前提在于知己知彼,这样才能选择合适的工具。这个部分内容包括知

biostar handbook: 第三周笔记汇总+第四周任务布置

就目前来看,这一周主要以补交上次作业为主,所以上一周的总结增加了很多新内容。但是关于本体论和富集分析,大家还是有点小困难。当然我自己交东西也慢了很多,因为时间也总是不太够,完全靠周末挤出来。 第三周笔记汇总如下 Biostar学习笔记(3)Gene set analysis related topics.本体论biostarhandboo(四)|本体论和功能分析基因本体论 第四周作业发布

biostar handbook: 第二周笔记汇总+第三周任务布置

第二周已经结束了,我不确定大家对Linux到底了解到了什么程度,但是我觉得再给一周时间让初学者去熟悉Linux肯定是必要的。于是这一周的任务不会太难,只需要让大家去理解本体论(ontology)。 笔记汇总 这周有一些小伙伴开始遭遇人生抉择,有一些则是要出差赶路,所以上交作业不算太多。可能大家对自己的要求有点高了,其实我一直强调的是笔记的不断迭代,只要你写了一点内容就可以发出来,后来不断修改,