将MAE方法用于reflacx数据集--MMpretrain/slurm

2024-06-13 13:28

本文主要是介绍将MAE方法用于reflacx数据集--MMpretrain/slurm,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MAE—reflacx

  • 问题
    • 问题一 === 对数据集reflacx的了解
    • 问题二 === MAE实现的是有监督,还是无监督任务
    • 问题三 === 实验流程
    • 问题四 === 实验目的
  • 一、从github上fork我师兄的项目30min(github账号的注册什么的,可以去参考b站)
    • 1.1 点开下面这个链接
    • 1.2 看到页面的上方,跟随我们的小兔子fork一下
    • 1.3 根据这个指引,填好之后,点击绿色的Create fork
    • 1.4 然后点击右上角自己的头像,点开 Your repositories(你的仓库)
    • 1.5 点击蓝色的mmpretrain项目,然后点击这个绿色的code,点击如下复制键
  • 二、创建一个虚拟环境 (1h)
    • 2.1 根据下面的链接学习如何创建环境
    • 2.2 实际创建一个虚拟环境,这里我们创建环境名mmlab
  • 三、根据模板来编写我们的MAE—reflacx (3h)
    • 3.1 读取reflacx数据集
    • 3.2 编写base文件
    • 3.3 mea模型文件
  • 四、在集群上运行 (24h)
    • 4.1 新建.sh文件,slurm集群管理版本
    • 4.2 bash运行
    • 4.3 运行中途打印的信息与最后得到的.pth文件

问题

问题一 === 对数据集reflacx的了解

ReFLACX (Revised Fully Labeled Chest X-ray) 数据集是一个专门用于医学影像分析的公开数据集,特别是胸部X光片的自动化分析。该数据集提供高质量的X光片影像,并附有详细的医学注释,旨在推动深度学习在医学影像中的应用和发展。

reflacx文件
来看一下reflacx.json文件

...
{"study_id": "34cedb74-d0996b40-6d218312-a9174bea-d48dc033","image_path": "files/p18/p18111516/s55032240/34cedb74-d0996b40-6d218312-a9174bea-d48dc033.jpg","report": "support apparatus. no pneumothorax. enlarged cardiac silhouette. no pulmonary consolidation or acute airspace disease.","reflacx_id": "P102R108387"},
...

可以看到这个注释文件的标签有study_id、image_path、report、reflacx_id四类。注意我们现在这个任务只需要使用这些图片,image_path就是我们要使用的东西

问题二 === MAE实现的是有监督,还是无监督任务

MAE是一种自监督学习方法
自监督学习是一种无监督学习的变种,它利用数据自身生成的标签来进行训练,而不需要人工标注的数据。这种方法在图像、文本等领域应用广泛,常用于预训练模型,使其在后续的有监督任务(如分类、检测等)中表现更好。MAE通过遮盖输入数据的一部分,然后训练模型重建被遮盖部分,从而学习数据的内部表示。以下是MAE的具体工作流程:

  1. 数据遮盖:随机遮盖输入数据的一部分。例如,在图像任务中,可以随机遮盖图像的一些区域。
  2. 编码器:将遮盖后的数据输入编码器,编码器提取剩余部分的特征。
  3. 解码器:将编码器的输出输入解码器,解码器尝试重建被遮盖的数据部分。
  4. 损失函数:计算重建部分与原始数据之间的差异(如均方误差,MSE),并反向传播更新模型参数。
    通过上述步骤,MAE在训练过程中学习如何从部分数据中恢复整体数据,从而捕获数据的全局特征和结构。

MAE方法最初是在图像领域提出的,例如用于图像分类任务的预训练。在这类任务中,MAE通过遮盖部分图像像素,并训练模型重建被遮盖部分,从而学习图像的有效表示。预训练后的模型可以迁移到下游的有监督任务中,通常能显著提高这些任务的性能。
总的来说,
MAE是一种自监督学习方法,属于无监督学习范畴。通过数据遮盖和重建任务,MAE能够在没有人工标注的情况下学习数据的有效表示。这种方法在需要大量数据预训练的任务中表现尤为突出,可以为后续的有监督任务提供强大的特征表示。

问题三 === 实验流程

  1. 从github上fork我师兄的项目 (30min)
  2. 创建一个虚拟环境 (1h)
  3. 根据模板来编写我们的MAE—reflacx (4h)
  4. 在集群上运行 (24h)

问题四 === 实验目的

得到自监督的预训练模型参数文件 (XXX.pth)

一、从github上fork我师兄的项目30min(github账号的注册什么的,可以去参考b站)

1.1 点开下面这个链接

师兄的mmpretrain网址

1.2 看到页面的上方,跟随我们的小兔子fork一下

在这里插入图片描述

1.3 根据这个指引,填好之后,点击绿色的Create fork

在这里插入图片描述

1.4 然后点击右上角自己的头像,点开 Your repositories(你的仓库)

在这里插入图片描述

1.5 点击蓝色的mmpretrain项目,然后点击这个绿色的code,点击如下复制键

把这个链接记下来,待会儿要用。
我的是:

https://github.com/jelly2933/mmpretrain.git

在这里插入图片描述

二、创建一个虚拟环境 (1h)

2.1 根据下面的链接学习如何创建环境

先看一下所有的操作,2.2会详细地展示

mmpretrain环境安装文档

在这里插入图片描述
![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/97ae4ae44ee54edc8f563bf9d0381b1f.png

2.2 实际创建一个虚拟环境,这里我们创建环境名mmlab

先用vscode连接好集群在bash(就是这种命令行输入的地方)下,先运行一下 cd ~ 回到家目录,然后依次执行下面的命令
在这里插入图片描述

  1. 去B站学习一下安装miniconda,最好是在家目录下创建一个software文件夹,再安装miniconda。
  2. cd ~
  3. conda create --name mmlab python=3.10 -y
  4. conda activate mmlab
  5. 这里要安装pytorch,有一些讲究,要去官网选择版本

pytorch官网

这是我的选择,感觉这个版本还是比较稳定的

在这里插入图片描述

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

要是下载比较慢,可以多试几次,或者加上ali云的镜像

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 -i https://mirrors.aliyun.com/pypi/simple/

6.注意,这里要使用到1.5记下来的链接,把下面的链接替换为你复制的链接

git clone https://github.com/jelly2933/mmpretrain.git
  1. cd mmpretrain
  2. pip install -U openmim && mim install -e . -i https://mirrors.aliyun.com/pypi/simple/
  3. 太棒了,你成功创建了mmlab环境,喝口水吧。

三、根据模板来编写我们的MAE—reflacx (3h)

在mmpretrain文件夹下,可以看到超多文件,不要随便改动尤其是别删除,我们根据他给的文件,添加文件,来实现我们的功能。

3.1 读取reflacx数据集

定位到mmpretrain文件夹下
cd ~/mmpretrain/

  1. 根据下图依此点开mmpretrain -> mmpretrain -> dataset。注意根目录是的mmpretrain
  2. 先看__init__.py文件

看到白色框框里面的,是我们将“Reflacx”类型的数据做好了注册,等下可以使用dataset_type = “Reflacx”这个语句。在这里插入图片描述
3. 接下来找到reflacx.py
重点关注load_data_list()这个函数,蓝色框里面就是用来读取我们数据的json文件的语句,白色框里是比较关键的读取图片的路径,上面我已经提到MAE是自监督方法,不需要标注信息,这里的info可以只使用绿色的第一句,我们只要获得这个图片就可以。
在这里插入图片描述

3.2 编写base文件

根目录是mmpretrain,依此点开configs -> _ base _ 。

  1. datasets文件
  • 先点开datasets,创建reflacx_bs64_mae.py文件
    在这里插入图片描述
  • 找到我们准备模仿的imagenet_bs512_mae.py文件,将imagenet_bs512_mae.py文件copy到reflacx_bs64_mae.py中
    第一个白色框是我们根据reflacx改动的,第二个白色框是将batch_size改小一点为64,加载数据的子进程数量num_workers改为4。
    黄色框是我们要删除的部分,因为所使用的reflacx数据集并没有划分训练集。
    绿色框部分是imagenet数据集的像素均值和标准差,这里我们没有计算reflacx数据集的,是可以计算之后替换掉的部分,或许2.0版本。
    在这里插入图片描述
  1. models文件
  • 先点开models,打开mae_vit-base-p16.py文件
    黄色框为我们添加的部分,这里要加载一个模型的参数。
    在这里插入图片描述
  • 在bash依次运行
cd ~
mkdir preTrain
cd preTrain
wget https://download.pytorch.org/models/vit_b_16-c867db91.pth
ls

在这里插入图片描述
看到这个.pth文件,说明下载好了参数
回到mmpretrain下

cd ~/mmpretrain/

3.接下来就还剩一个文件的编写了,真棒,喝口水吧~

3.3 mea模型文件

根目录是mmpretrain,依此点开configs -> mae 。

  1. 创建一个mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py文件,打开mae_vit-base-p16_8xb512-amp-coslr-400e_in1k.py文件,将里面的内容复制到mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py。
    在这里插入图片描述
    2.同时打开 mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py和mae_vit-base-p16_8xb512-amp-coslr-400e_in1k.py

    第一个白色框,是我们在3.2做的改动,通过datasets/reflacx_bs64_mae.py,我们可以batchsize=64使用reflacx数据集;通过models/mae_vit-base-p16.py我们添加了vit_b_16-c867db91.pth模型参数。
    第二个白色框,将学习率改为比较常用的1e-3
    在这里插入图片描述
    白色框是修改为每隔一百轮保存一次模型,最多保存400个模型参数文件,即.pth文件;
    每隔10轮打印一次输出信息;
    黄色框为删除的部分。
    在这里插入图片描述 3.到此,要添加的内容就完成了!!

四、在集群上运行 (24h)

根目录是mmpretrain,点开tools 。

4.1 新建.sh文件,slurm集群管理版本

这里命名为bme_train.sh

#!/usr/bin/env bash
#SBATCH -p bme_gpu
#SBATCH --job-name=selfsup_reflacx
#SBATCH --nodes=1
#SBATCH --gres=gpu:1
#SBATCH --mem=64G
#SBATCH --ntasks-per-node=1
#SBATCH --cpus-per-task=4
#SBATCH -t 5-00:00:00set -xCONFIG=$1
PY_ARGS=${@:2}
source activate mmlab
nvidia-smiPYTHONPATH="$(dirname $0)/..":$PYTHONPATH \
python -u tools/train.py ${CONFIG} --launcher="slurm" ${PY_ARGS}# PYTHONPATH="$(dirname $0)/..":$PYTHONPATH OMP_NUM_THREADS=4 python -u tools/train.py ${CONFIG} --launcher="slurm" ${PY_ARGS}
# PYTHONPATH="$(dirname $0)/..":$PYTHONPATH python -u tools/train.py ${CONFIG} --launcher="slurm" ${PY_ARGS}
# gpu:1
# gpu:NVIDIAA10080GBPCIe:1#

4.2 bash运行

cd ~/mmpretrain
sbatch tools/bme_train.sh  configs/mae/mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py 

4.3 运行中途打印的信息与最后得到的.pth文件

在这里插入图片描述
在这里插入图片描述在这里插入图片描述
得到的epoch_400.pth可以用作预训练模型参数啦,下一步就是评估这个模型参数。

多多点赞,会变好看!!

这篇关于将MAE方法用于reflacx数据集--MMpretrain/slurm的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1057430

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操