将MAE方法用于reflacx数据集--MMpretrain/slurm

2024-06-13 13:28

本文主要是介绍将MAE方法用于reflacx数据集--MMpretrain/slurm,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MAE—reflacx

  • 问题
    • 问题一 === 对数据集reflacx的了解
    • 问题二 === MAE实现的是有监督,还是无监督任务
    • 问题三 === 实验流程
    • 问题四 === 实验目的
  • 一、从github上fork我师兄的项目30min(github账号的注册什么的,可以去参考b站)
    • 1.1 点开下面这个链接
    • 1.2 看到页面的上方,跟随我们的小兔子fork一下
    • 1.3 根据这个指引,填好之后,点击绿色的Create fork
    • 1.4 然后点击右上角自己的头像,点开 Your repositories(你的仓库)
    • 1.5 点击蓝色的mmpretrain项目,然后点击这个绿色的code,点击如下复制键
  • 二、创建一个虚拟环境 (1h)
    • 2.1 根据下面的链接学习如何创建环境
    • 2.2 实际创建一个虚拟环境,这里我们创建环境名mmlab
  • 三、根据模板来编写我们的MAE—reflacx (3h)
    • 3.1 读取reflacx数据集
    • 3.2 编写base文件
    • 3.3 mea模型文件
  • 四、在集群上运行 (24h)
    • 4.1 新建.sh文件,slurm集群管理版本
    • 4.2 bash运行
    • 4.3 运行中途打印的信息与最后得到的.pth文件

问题

问题一 === 对数据集reflacx的了解

ReFLACX (Revised Fully Labeled Chest X-ray) 数据集是一个专门用于医学影像分析的公开数据集,特别是胸部X光片的自动化分析。该数据集提供高质量的X光片影像,并附有详细的医学注释,旨在推动深度学习在医学影像中的应用和发展。

reflacx文件
来看一下reflacx.json文件

...
{"study_id": "34cedb74-d0996b40-6d218312-a9174bea-d48dc033","image_path": "files/p18/p18111516/s55032240/34cedb74-d0996b40-6d218312-a9174bea-d48dc033.jpg","report": "support apparatus. no pneumothorax. enlarged cardiac silhouette. no pulmonary consolidation or acute airspace disease.","reflacx_id": "P102R108387"},
...

可以看到这个注释文件的标签有study_id、image_path、report、reflacx_id四类。注意我们现在这个任务只需要使用这些图片,image_path就是我们要使用的东西

问题二 === MAE实现的是有监督,还是无监督任务

MAE是一种自监督学习方法
自监督学习是一种无监督学习的变种,它利用数据自身生成的标签来进行训练,而不需要人工标注的数据。这种方法在图像、文本等领域应用广泛,常用于预训练模型,使其在后续的有监督任务(如分类、检测等)中表现更好。MAE通过遮盖输入数据的一部分,然后训练模型重建被遮盖部分,从而学习数据的内部表示。以下是MAE的具体工作流程:

  1. 数据遮盖:随机遮盖输入数据的一部分。例如,在图像任务中,可以随机遮盖图像的一些区域。
  2. 编码器:将遮盖后的数据输入编码器,编码器提取剩余部分的特征。
  3. 解码器:将编码器的输出输入解码器,解码器尝试重建被遮盖的数据部分。
  4. 损失函数:计算重建部分与原始数据之间的差异(如均方误差,MSE),并反向传播更新模型参数。
    通过上述步骤,MAE在训练过程中学习如何从部分数据中恢复整体数据,从而捕获数据的全局特征和结构。

MAE方法最初是在图像领域提出的,例如用于图像分类任务的预训练。在这类任务中,MAE通过遮盖部分图像像素,并训练模型重建被遮盖部分,从而学习图像的有效表示。预训练后的模型可以迁移到下游的有监督任务中,通常能显著提高这些任务的性能。
总的来说,
MAE是一种自监督学习方法,属于无监督学习范畴。通过数据遮盖和重建任务,MAE能够在没有人工标注的情况下学习数据的有效表示。这种方法在需要大量数据预训练的任务中表现尤为突出,可以为后续的有监督任务提供强大的特征表示。

问题三 === 实验流程

  1. 从github上fork我师兄的项目 (30min)
  2. 创建一个虚拟环境 (1h)
  3. 根据模板来编写我们的MAE—reflacx (4h)
  4. 在集群上运行 (24h)

问题四 === 实验目的

得到自监督的预训练模型参数文件 (XXX.pth)

一、从github上fork我师兄的项目30min(github账号的注册什么的,可以去参考b站)

1.1 点开下面这个链接

师兄的mmpretrain网址

1.2 看到页面的上方,跟随我们的小兔子fork一下

在这里插入图片描述

1.3 根据这个指引,填好之后,点击绿色的Create fork

在这里插入图片描述

1.4 然后点击右上角自己的头像,点开 Your repositories(你的仓库)

在这里插入图片描述

1.5 点击蓝色的mmpretrain项目,然后点击这个绿色的code,点击如下复制键

把这个链接记下来,待会儿要用。
我的是:

https://github.com/jelly2933/mmpretrain.git

在这里插入图片描述

二、创建一个虚拟环境 (1h)

2.1 根据下面的链接学习如何创建环境

先看一下所有的操作,2.2会详细地展示

mmpretrain环境安装文档

在这里插入图片描述
![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/97ae4ae44ee54edc8f563bf9d0381b1f.png

2.2 实际创建一个虚拟环境,这里我们创建环境名mmlab

先用vscode连接好集群在bash(就是这种命令行输入的地方)下,先运行一下 cd ~ 回到家目录,然后依次执行下面的命令
在这里插入图片描述

  1. 去B站学习一下安装miniconda,最好是在家目录下创建一个software文件夹,再安装miniconda。
  2. cd ~
  3. conda create --name mmlab python=3.10 -y
  4. conda activate mmlab
  5. 这里要安装pytorch,有一些讲究,要去官网选择版本

pytorch官网

这是我的选择,感觉这个版本还是比较稳定的

在这里插入图片描述

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

要是下载比较慢,可以多试几次,或者加上ali云的镜像

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 -i https://mirrors.aliyun.com/pypi/simple/

6.注意,这里要使用到1.5记下来的链接,把下面的链接替换为你复制的链接

git clone https://github.com/jelly2933/mmpretrain.git
  1. cd mmpretrain
  2. pip install -U openmim && mim install -e . -i https://mirrors.aliyun.com/pypi/simple/
  3. 太棒了,你成功创建了mmlab环境,喝口水吧。

三、根据模板来编写我们的MAE—reflacx (3h)

在mmpretrain文件夹下,可以看到超多文件,不要随便改动尤其是别删除,我们根据他给的文件,添加文件,来实现我们的功能。

3.1 读取reflacx数据集

定位到mmpretrain文件夹下
cd ~/mmpretrain/

  1. 根据下图依此点开mmpretrain -> mmpretrain -> dataset。注意根目录是的mmpretrain
  2. 先看__init__.py文件

看到白色框框里面的,是我们将“Reflacx”类型的数据做好了注册,等下可以使用dataset_type = “Reflacx”这个语句。在这里插入图片描述
3. 接下来找到reflacx.py
重点关注load_data_list()这个函数,蓝色框里面就是用来读取我们数据的json文件的语句,白色框里是比较关键的读取图片的路径,上面我已经提到MAE是自监督方法,不需要标注信息,这里的info可以只使用绿色的第一句,我们只要获得这个图片就可以。
在这里插入图片描述

3.2 编写base文件

根目录是mmpretrain,依此点开configs -> _ base _ 。

  1. datasets文件
  • 先点开datasets,创建reflacx_bs64_mae.py文件
    在这里插入图片描述
  • 找到我们准备模仿的imagenet_bs512_mae.py文件,将imagenet_bs512_mae.py文件copy到reflacx_bs64_mae.py中
    第一个白色框是我们根据reflacx改动的,第二个白色框是将batch_size改小一点为64,加载数据的子进程数量num_workers改为4。
    黄色框是我们要删除的部分,因为所使用的reflacx数据集并没有划分训练集。
    绿色框部分是imagenet数据集的像素均值和标准差,这里我们没有计算reflacx数据集的,是可以计算之后替换掉的部分,或许2.0版本。
    在这里插入图片描述
  1. models文件
  • 先点开models,打开mae_vit-base-p16.py文件
    黄色框为我们添加的部分,这里要加载一个模型的参数。
    在这里插入图片描述
  • 在bash依次运行
cd ~
mkdir preTrain
cd preTrain
wget https://download.pytorch.org/models/vit_b_16-c867db91.pth
ls

在这里插入图片描述
看到这个.pth文件,说明下载好了参数
回到mmpretrain下

cd ~/mmpretrain/

3.接下来就还剩一个文件的编写了,真棒,喝口水吧~

3.3 mea模型文件

根目录是mmpretrain,依此点开configs -> mae 。

  1. 创建一个mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py文件,打开mae_vit-base-p16_8xb512-amp-coslr-400e_in1k.py文件,将里面的内容复制到mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py。
    在这里插入图片描述
    2.同时打开 mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py和mae_vit-base-p16_8xb512-amp-coslr-400e_in1k.py

    第一个白色框,是我们在3.2做的改动,通过datasets/reflacx_bs64_mae.py,我们可以batchsize=64使用reflacx数据集;通过models/mae_vit-base-p16.py我们添加了vit_b_16-c867db91.pth模型参数。
    第二个白色框,将学习率改为比较常用的1e-3
    在这里插入图片描述
    白色框是修改为每隔一百轮保存一次模型,最多保存400个模型参数文件,即.pth文件;
    每隔10轮打印一次输出信息;
    黄色框为删除的部分。
    在这里插入图片描述 3.到此,要添加的内容就完成了!!

四、在集群上运行 (24h)

根目录是mmpretrain,点开tools 。

4.1 新建.sh文件,slurm集群管理版本

这里命名为bme_train.sh

#!/usr/bin/env bash
#SBATCH -p bme_gpu
#SBATCH --job-name=selfsup_reflacx
#SBATCH --nodes=1
#SBATCH --gres=gpu:1
#SBATCH --mem=64G
#SBATCH --ntasks-per-node=1
#SBATCH --cpus-per-task=4
#SBATCH -t 5-00:00:00set -xCONFIG=$1
PY_ARGS=${@:2}
source activate mmlab
nvidia-smiPYTHONPATH="$(dirname $0)/..":$PYTHONPATH \
python -u tools/train.py ${CONFIG} --launcher="slurm" ${PY_ARGS}# PYTHONPATH="$(dirname $0)/..":$PYTHONPATH OMP_NUM_THREADS=4 python -u tools/train.py ${CONFIG} --launcher="slurm" ${PY_ARGS}
# PYTHONPATH="$(dirname $0)/..":$PYTHONPATH python -u tools/train.py ${CONFIG} --launcher="slurm" ${PY_ARGS}
# gpu:1
# gpu:NVIDIAA10080GBPCIe:1#

4.2 bash运行

cd ~/mmpretrain
sbatch tools/bme_train.sh  configs/mae/mae_vit-base-p16_1xb64-amp-coslr-400e_reflacx.py 

4.3 运行中途打印的信息与最后得到的.pth文件

在这里插入图片描述
在这里插入图片描述在这里插入图片描述
得到的epoch_400.pth可以用作预训练模型参数啦,下一步就是评估这个模型参数。

多多点赞,会变好看!!

这篇关于将MAE方法用于reflacx数据集--MMpretrain/slurm的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1057430

相关文章

Java中注解与元数据示例详解

《Java中注解与元数据示例详解》Java注解和元数据是编程中重要的概念,用于描述程序元素的属性和用途,:本文主要介绍Java中注解与元数据的相关资料,文中通过代码介绍的非常详细,需要的朋友可以参... 目录一、引言二、元数据的概念2.1 定义2.2 作用三、Java 注解的基础3.1 注解的定义3.2 内

将sqlserver数据迁移到mysql的详细步骤记录

《将sqlserver数据迁移到mysql的详细步骤记录》:本文主要介绍将SQLServer数据迁移到MySQL的步骤,包括导出数据、转换数据格式和导入数据,通过示例和工具说明,帮助大家顺利完成... 目录前言一、导出SQL Server 数据二、转换数据格式为mysql兼容格式三、导入数据到MySQL数据

C++中使用vector存储并遍历数据的基本步骤

《C++中使用vector存储并遍历数据的基本步骤》C++标准模板库(STL)提供了多种容器类型,包括顺序容器、关联容器、无序关联容器和容器适配器,每种容器都有其特定的用途和特性,:本文主要介绍C... 目录(1)容器及简要描述‌php顺序容器‌‌关联容器‌‌无序关联容器‌(基于哈希表):‌容器适配器‌:(

Python判断for循环最后一次的6种方法

《Python判断for循环最后一次的6种方法》在Python中,通常我们不会直接判断for循环是否正在执行最后一次迭代,因为Python的for循环是基于可迭代对象的,它不知道也不关心迭代的内部状态... 目录1.使用enuhttp://www.chinasem.cnmerate()和len()来判断for

C#提取PDF表单数据的实现流程

《C#提取PDF表单数据的实现流程》PDF表单是一种常见的数据收集工具,广泛应用于调查问卷、业务合同等场景,凭借出色的跨平台兼容性和标准化特点,PDF表单在各行各业中得到了广泛应用,本文将探讨如何使用... 目录引言使用工具C# 提取多个PDF表单域的数据C# 提取特定PDF表单域的数据引言PDF表单是一

Java循环创建对象内存溢出的解决方法

《Java循环创建对象内存溢出的解决方法》在Java中,如果在循环中不当地创建大量对象而不及时释放内存,很容易导致内存溢出(OutOfMemoryError),所以本文给大家介绍了Java循环创建对象... 目录问题1. 解决方案2. 示例代码2.1 原始版本(可能导致内存溢出)2.2 修改后的版本问题在

四种Flutter子页面向父组件传递数据的方法介绍

《四种Flutter子页面向父组件传递数据的方法介绍》在Flutter中,如果父组件需要调用子组件的方法,可以通过常用的四种方式实现,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录方法 1:使用 GlobalKey 和 State 调用子组件方法方法 2:通过回调函数(Callb

一文详解Python中数据清洗与处理的常用方法

《一文详解Python中数据清洗与处理的常用方法》在数据处理与分析过程中,缺失值、重复值、异常值等问题是常见的挑战,本文总结了多种数据清洗与处理方法,文中的示例代码简洁易懂,有需要的小伙伴可以参考下... 目录缺失值处理重复值处理异常值处理数据类型转换文本清洗数据分组统计数据分箱数据标准化在数据处理与分析过

Java中Object类的常用方法小结

《Java中Object类的常用方法小结》JavaObject类是所有类的父类,位于java.lang包中,本文为大家整理了一些Object类的常用方法,感兴趣的小伙伴可以跟随小编一起学习一下... 目录1. public boolean equals(Object obj)2. public int ha

大数据小内存排序问题如何巧妙解决

《大数据小内存排序问题如何巧妙解决》文章介绍了大数据小内存排序的三种方法:数据库排序、分治法和位图法,数据库排序简单但速度慢,对设备要求高;分治法高效但实现复杂;位图法可读性差,但存储空间受限... 目录三种方法:方法概要数据库排序(http://www.chinasem.cn对数据库设备要求较高)分治法(常