本文主要是介绍深度剖析monai(一) Data和Transforms部分,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
目录
- 前言
- 简单使用
- 其他数据增强方法
- 自定义数据读取器
- 自定义数据增强操作
- 总结
前言
最近没什么事,研究了一下monai
,它是一个优秀的基于pytorch
的医学深度学习框架,包括了Tansformers(负责数据的读取和数据增强)
、Loss functions(包含常见的损失函数)
、Network architectures(实现了常用的医学图像分割model)
、Metrics(验证时的评估函数)
、Optimizer(优化器)
、Data(Dataset和DataLoader)
等几个常用的深度学习组件。通过这些组件,我们可以定义好自己的model
后,方便地进行训练。在这篇文章里咱们就想先来说一下monai
的Transformers数据增强组件
和Data组件
。
简单使用
首先我们回忆一下,大家平时在写训练逻辑时肯定是先定义Dataset
类,Dataset
类可以通过调用自身的__getitem__
方法返回数据,此时数据的维度为[C, H, W, D]
,C代表通道数,H,W,D分别代表高、宽、深(三维时才有深度这个维度)。然后通过DataLoader
类多次调用Dataset
类的__getitem__
生成多个样本,将其组合起来,此时返回的数据维度为[B, C, H, W, D]
, B代表batch_size大小。
monai加载数据时也是按照这个思路来写的,先定义Dataset
,再使用DataLoader
。在定义Dataset
的时候,我们可以向其传入一系列monai
自定义的数据增强方法,比如数据的读取、数据的随机旋转、裁剪、翻转、切分patch,归一化、标准化、转为tentor
等,这些数据增强操作统一被写到了monai.Transformers
模块中。和Pytorch
一样,这些数据增强操作统一可以由monai.transforms.Compose
类包裹起来,这样数据就可以自动流式处理了,减少了代码量。
下面我们来看一个简单的例子,是直接调用的不带字典的数据增强方法,但是这种方式不能用dataloader
包装。
from monai import transforms, data
# 定义数据集列表data_list = ["F:/9.4Data/ski10/image/image-001.nii.gz", "F:/9.4Data/ski10/image/image-002.nii.gz","F:/9.4Data/ski10/image/image-003.nii.gz", "F:/9.4Data/ski10/image/image-004.nii.gz"]
# 定义数据增强操作
train_transform = transforms.Compose([transforms.LoadImage(), # 加载图像,底层会根据文件名来选择对应的数据读取器,nii结尾的文件默认用ITK读取数据transforms.AddChannel(), # 增加通道,monai所有Transforms方法默认的输入格式都是[C, W, H, ...],第一维一定是通道维transforms.ToTensor() # 将numpy转为tensor,注意和pytorch不一样的是,此操作并不包含归一化步骤
])
其实好多数据增强操作都是在image
和label
上同时进行的,比如裁剪和旋转
。和pytorch数据增强方法torchvision.transform
不同的是,monai
中每一个数据增强方法类都对应一个字典增强类,以d
结尾。这样的字典增强类以一个字典对象作为输入,如{"image": "", "label": ""}
,构造时可以通过keys
参数指定在image
或label
上进行操作,在这个类内部通过__call__()
方法进行相应的数据增强操作,具体可查看源码。最终的输出也是一个字典,该字典所包含的key
和传入的key
值一致。下面是一个简单的例子:
from monai import transforms, datadata_list = [{"image": "F:/9.4Data/ski10/image/image-001.nii.gz", "label": "F:/9.4Data/ski10/label/labels-001.nii.gz"}, {"image": "F:/9.4Data/ski10/image/image-002.nii.gz", "label": "F:/9.4Data/ski10/label/labels-002.nii.gz"},{"image": "F:/9.4Data/ski10/image/image-003.nii.gz", "label": "F:/9.4Data/ski10/label/labels-003.nii.gz"}, {"image": "F:/9.4Data/ski10/image/image-004.nii.gz", "label": "F:/9.4Data/ski10/label/labels-004.nii.gz"}]
train_transformd = transforms.Compose([# 加载图像,会默认根据文件后缀选择相应的读取类transforms.LoadImaged(keys=["image", "label"]),# 增加通道维度transforms.AddChanneld(keys=["image", "label"]),# 根据前景裁剪,会把前景部分裁剪出来transforms.CropForegroundd(keys=["image", "label"], source_key="label", margin=5),# 转化为tensor,这里没有做归一化,只是单纯地转为tensor的floattransforms.ToTensord(keys=["image", "label"])
])
其他数据增强方法
见官方文档(后面有时间补充)
这里说一个特殊的数据增强方法transforms.RandCropByPosNegLabeld
。
功能:主要是在原图上按照正负样本比例随机裁剪出指定个固定大小的patch块
,适应于正负样本不平衡的情况,通过此操作可以平衡样本,也可以切出固定大小
的patch
块送入网络中进行训练。
其功能倒是没什么可说的,主要是前面我们说过所有的数据增强类输入输出都是一个字典对象
,每个字典对象代表一个训练对象,而这个类因为可以切出好几个patch
,所以它输出的是一个包含多个字典对象
的列表,如下图所示。
那么,问题来了,此数据增强类输出的多个字典是如何输入下一个数据增强类的呢(数据增强器的输入都应该是字典啊,而不是列表)?
在看了Compose
类的源码之后,我发现Compose
在把上一个数据增强类输出的结果送入下一个数据增强类的时候,会做一个判断:如果是列表,则循环进行输入;如果是字典,则直接输入。
这样循环输入后相当于多了一个batch_size
维度,后期也印证了我这个想法,当我dataloader
中的batch_size=2
, 而transforms.RandCropByPosNegLabeld
类中num_samples=4
时每一个迭代其batch_size=2*4=8
from monai import transforms, datadata_list = [{"image": "F:/9.4Data/ski10/image/image-001.nii.gz", "label": "F:/9.4Data/ski10/label/labels-001.nii.gz"}, {"image": "F:/9.4Data/ski10/image/image-002.nii.gz", "label": "F:/9.4Data/ski10/label/labels-002.nii.gz"},{"image": "F:/9.4Data/ski10/image/image-003.nii.gz", "label": "F:/9.4Data/ski10/label/labels-003.nii.gz"}, {"image": "F:/9.4Data/ski10/image/image-004.nii.gz", "label": "F:/9.4Data/ski10/label/labels-004.nii.gz"}]train_transformd = transforms.Compose([# 加载图像,会默认根据文件后缀选择相应的读取类transforms.LoadImaged(keys=["image", "label"]),# 增加通道维度transforms.AddChanneld(keys=["image", "label"]),# 根据前景裁剪,会把前景部分裁剪出来transforms.CropForegroundd(keys=["image", "label"], source_key="label", margin=5),# 按比例裁剪背景和前景, 如果num_samples不为1,则会将指定值个的裁剪后的样本,放入list中返回,最后dataloader会拼起来# 比如这里num_samples=4, dataloader的batch_size=2,那么最终每次迭代会返回4*2=8个样本,即bacth_size=8# spatial_size超过原本数据大小后会报错# 自定义归一化数据Uniformd(keys=["image"]),transforms.RandCropByPosNegLabeld(keys=["image", "label"],label_key="label",spatial_size=[256, 256, 80],pos=1,neg=1,num_samples=4,image_key="image"),# 使用插值算法放缩到固定尺寸, size_mode='all'时表示不会保留原有的长宽比# transforms.Resized(keys=["image", "label"], spatial_size=[256, 256, 100], size_mode="all", mode=["area", "nearest"]),# 归一化放缩像素值,比如放缩到0-1;这里并不适用ski10数据集,因为si10数据集中每个样本的取值范围不一样,所以我们自定义了# transforms.ScaleIntensityRanged(keys=["image", "label"],# a_min=0, a_max=5000,# b_min=0, b_max=1),# 转化为tensor,这里没有做归一化,只是单纯地转为tensor的floattransforms.ToTensord(keys=["image", "label"])
])train_dataset = data.Dataset(data=data_list, transform=train_transformd)train_dataLoader = data.DataLoader(dataset=train_dataset, batch_size=2, shuffle=True, num_workers=2)print('训练数据集数量', len(train_dataset))for batch_data in train_dataLoader:image, label = batch_data["image"], batch_data["label"]print('image shape:', image.shape, 'label shape:', label.shape, 'max:', torch.max(image), 'min:', torch.min(image))
自定义数据读取器
在上面例子中,我们读取数据nii
是使用transforms.LoadImaged(keys=["image", "label"])
方法根据文件名读取图像的,可是我们有没有想过内部到底是如何读取数据的呢?
原来这个类有一个reader
参数,这是一个读取数据的类,内部就是通过调用Reader
类来根据文件名读取图像的。那么我们有定义过Reader
类吗,答案是没有,官方已经写好了,读取nii或nii.gz
会调用ITKReader
类,读取png、jpeg
会使用PILReader
。
如果我们想要定义自己的数据读取器,应该怎么做呢?
答案是继承data.ImageReader
类,实现get_data
,read
, verify_suffix
方法即可(具体返回值可看官方文档),这里我在ITKReader
的基础上,自定义了一个归一化类,它可以计算最大值和最小值,从而将体素值归一化到[0, 1]
, 代码如下,使用的时候直接作为参数传入即可:
from monai import transforms, data
# 自定义读取器的get_data方法,注意读取器处理的对象是一个nii文件,他并不知道是image还是label,是在loadImage中调用的
class MyReader(data.ITKReader):def __init__(self, channel_dim: Optional[int] = None, series_name: str = "", reverse_indexing: bool = False, series_meta: bool = False, **kwargs):super().__init__(channel_dim, series_name, reverse_indexing, series_meta, **kwargs)def get_data(self, img):image, meta = super().get_data(img)image = np.array(image)# 只对image进行归一化操作if np.max(image) != 4:max_value, min_value = np.max(image), np.min(image)# 根据最大最小值进行归一化放缩到0-1image = (image - min_value) / (max_value - min_value)# print(np.max(image), np.min(image))return image, meta# 使用自定义读取器类
# 加载图像,会默认根据文件后缀选择相应的读取类
transforms.LoadImaged(keys=["image", "label"], reader=MyReader)
自定义数据增强操作
还是回到刚刚那个问题,我想要根据每个nii文件的最大值和最小值进行归一化,除了在读取数据时提前操作,还有别的办法吗?
当然有!直接定义一个自己的归一化数据增强类Uniformd
岂不是更方便。
那应该如何定义呢?
官方并没有说,不过我看源码,首先是要继承’MapTransform, InvertibleTransform’两个类,然后实现__call__
(数据增强正向调用时用)和inverse
方法(增强后的数据返回原始数据,好像几乎用不到)即可。
强调一下,因为monai中每一个字典增强类都对应一个不带字典的同样功能的数据增强类,所以官方内部实现时是直接实例化了一个,然后在内部调用。
而我自己定义的为了简单,是直接写了个函数来完成对于操作。
代码如下:
class Uniformd(MapTransform, InvertibleTransform):"""归一化值"""def __init__(self,keys,dtype: Optional[torch.dtype] = None,device: Optional[torch.device] = None,wrap_sequence: bool = True,allow_missing_keys: bool = False,) -> None:super().__init__(keys, allow_missing_keys)def __call__(self, data):d = dict(data)for key in self.key_iterator(d):self.push_transform(d, key)d[key] = self.uniform(d[key])return ddef uniform(self, data):max_value, min_value = np.max(data), np.min(data)# 根据最大最小值进行归一化放缩到0-1data = (data - min_value) / (max_value - min_value)return datadef inverse(self, data):d = deepcopy(dict(data))for key in self.key_iterator(d):# Create inverse transform# inverse_transform = ToNumpy()# Apply inversed[key] = self.uniform(d[key])# Remove the applied transformself.pop_transform(d, key)return d
之后就可以像官方数据增强类一样初始化调用使用了# 自定义归一化数据 Uniformd(keys=["image"])
。
总结
折腾了两天,终于解决了自己的诸多疑惑,看来最好的学习资料还是源码和官网,大家善加利用 !
monai官网链接
这篇关于深度剖析monai(一) Data和Transforms部分的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!