【VGG】口罩人脸分类

2024-04-29 17:32
文章标签 分类 人脸 口罩 vgg

本文主要是介绍【VGG】口罩人脸分类,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 1. 项目准备
    • 1.1. 问题导入
    • 1.2. 数据集简介
  • 2. VGG模型
  • 3. 实验步骤
    • 3.0. 前期准备
    • 3.1. 数据准备
    • 3.2. 网络配置
    • 3.3. 模型训练
    • 3.4. 模型评估
    • 3.5. 模型预测
  • 写在最后


1. 项目准备

1.1. 问题导入

新冠肺炎病毒在全球肆虐,武汉大学率先公开了口罩遮挡人脸数据集。我们从中选取了6000余张戴口罩的人脸图片和6000余张正常的人脸图片作为实验数据集,以训练改进版的VGG16模型,使其能够实现对人脸是否佩戴口罩的判定。

1.2. 数据集简介

本次实验采用的是武汉大学口罩遮挡人脸数据集(RMFD)的一部分,它包含6000余张戴口罩的人脸图片和6000余张正常的人脸图片。

这是数据集的下载链接:人脸口罩分类数据集 - AI Studio

2. VGG模型

VGG是由 Simonyan和Zisserman(2014)在论文中提出卷积神经网络模型,其名称来源于作者所在的牛津大学视觉几何组(Visual Geometry Group)的缩写,它是2014年ILSVRC竞赛的第二名(第一名是GoogLeNet),但是VGG在多个迁移学习任务中的表现要优于GoogLeNet

作者在论文中证明了小尺寸(3×3)卷积核的深层网络要优于大尺寸卷积核的浅层网络,因此VGG模型采用3×3的卷积核代替了其他的大尺寸卷积核。VGG中根据卷积核大小和卷积层数目的不同,可分为AA-LRNBCDE共6个配置(ConvNet Configuration),其中以DE两种配置较为常用,分别称为VGG16VGG19。本实验使用的是VGG16模型(如下图D所示)。


3. 实验步骤

3.0. 前期准备

  • 导入模块

注意:本案例仅适用于PaddlePaddle 2.0+版本

import os
import zipfile
import random
import numpy as np
from PIL import Image, ImageEnhance
import matplotlib.pyplot as pltimport paddle
from paddle import nn
from paddle import metric as M
from paddle.io import DataLoader, Dataset
from paddle.nn import functional as F
from paddle.optimizer import Adam
from paddle.optimizer.lr import NaturalExpDecay
  • 设置超参数
BATCH_SIZE = 64      # 每批次的样本数
EPOCHS = 8           # 训练轮数
LOG_GAP = 100        # 输出训练信息的间隔CLASS_DIM = 2        # 图像种类
LAB_DICT = {         # 记录标签和数字的关系"0": "没戴口罩","1": "戴了口罩"
}INIT_LR = 3e-4       # 初始学习率
LR_DECAY = 0.6       # 学习率衰减率SRC_PATH = "./data/data52391/Masked_Face.zip"    # 压缩包路径
DST_PATH = "./data"                              # 解压路径
DATA_PATH = {                                    # 实验数据集路径"0": DST_PATH + "/AFDB_face_dataset",        # 正常人脸"1": DST_PATH + "/AFDB_masked_face_dataset"  # 口罩人脸
}
INFER_PATH = ["./work/n1.jpg", "./work/n2.jpg", "./work/m1.jpg", "./work/m2.jpg"]  # 预测数据集路径
MODEL_PATH = "VGG.pdparams"                      # 模型参数保存路径

3.1. 数据准备

  • 解压数据集
    由于数据集中的数据是以压缩包的形式存放的,因此我们需要先解压数据压缩包。
if not os.path.isdir(DATA_PATH["0"]) or not os.path.isdir(DATA_PATH["1"]):z = zipfile.ZipFile(SRC_PATH, "r")   # 打开压缩文件,创建zip对象z.extractall(path=DST_PATH)          # 解压zip文件至目标路径z.close()
print("数据集解压完成!")
  • 划分数据集
    我们需要按1:9比例划分测试集和训练集,分别生成两个包含数据路径和标签映射关系的列表。
def get_data_list(lab_no, path):   # 划分path路径下的数据集count = 0      # 记录图片的数量,便于划分数据集temp_train_list, temp_test_list = [], []   # 临时存放数据集位置及类别file_folders = os.listdir(path)            # 获取path路径下所有的文件夹for folder in file_folders:images = os.listdir(os.path.join(path, folder))for img in images:img_path = os.path.join(path, folder, img)if count % 10 == 0:           # 按照1:9的比例划分数据集temp_test_list.append([img_path, lab_no])else:temp_train_list.append([img_path, lab_no])count += 1return temp_train_list, temp_test_list
train_lt1, test_lt1 = get_data_list(0, DATA_PATH["0"])  # 划分“正常人脸”
train_lt2, test_lt2 = get_data_list(1, DATA_PATH["1"])  # 划分“口罩人脸”
train_list = train_lt1 + train_lt2
test_list = test_lt1 + test_lt2
  • 数据增强
    由于实验模型较为复杂,直接训练容易发生过拟合,故在处理实验数据集时采用数据增强的方法扩充数据集的多样性。数据増广(Data Augmentation),即数据增强,数据增强的目的主要是减少网络的过拟合现象,通过对训练图片进行变换可以得到泛化能力更强的网络,更好地适应应用场景。本实验中用到的数据增强方法有:随机改变亮度,随机改变对比度,随机改变饱和度,随机改变清晰度,随机翻转图像,随机加高斯噪声等。
def random_brightness(img, low=0.5, high=1.5):''' 随机改变亮度(0.5~1.5) '''x = random.uniform(low, high)img = ImageEnhance.Brightness(img).enhance(x)return imgdef random_contrast(img, low=0.5, high=1.5):''' 随机改变对比度(0.5~1.5) '''x = random.uniform(low, high)img = ImageEnhance.Contrast(img).enhance(x)return imgdef random_color(img, low=0.5, high=1.5):''' 随机改变饱和度(0.5~1.5) '''x = random.uniform(low, high)img = ImageEnhance.Color(img).enhance(x)return imgdef random_sharpness(img, low=0.5, high=1.5):''' 随机改变清晰度(0.5~1.5) '''x = random.uniform(low, high)img = ImageEnhance.Sharpness(img).enhance(x)return imgdef random_flip(img, prob=0.5):''' 随机翻转图像(p=0.5) '''if random.random() < prob:   # 左右翻转img = img.transpose(Image.FLIP_LEFT_RIGHT)# if random.random() < prob:   # 上下翻转#     img = img.transpose(Image.FLIP_TOP_BOTTOM)return imgdef random_rotate(img, low=-30, high=30):''' 随机旋转图像(-30~30) '''angle = random.choice(range(low, high))img = img.rotate(angle)return imgdef random_noise(img, low=0, high=10):''' 随机加高斯噪声(0~10) '''img = np.asarray(img)sigma = np.random.uniform(low, high)noise = np.random.randn(img.shape[0], img.shape[1], 3) * sigmaimg = img + np.round(noise).astype('uint8')# 将矩阵中的所有元素值限制在0~255之间:img[img > 255], img[img < 0] = 255, 0img = Image.fromarray(img)return imgdef image_augment(img, prob=0.5):''' 叠加多种数据增强方法 '''opts = [random_brightness, random_contrast, random_color, random_flip,random_rotate, random_noise, random_sharpness,]  # 数据增强方法random.shuffle(opts)for opt in opts:img = opt(img) if random.random() < prob else img     # 处理图像return img
  • 数据预处理
    我们需要对数据集图像进行缩放和归一化处理。
class MyDataset(Dataset):''' 自定义的数据集类 '''def __init__(self, label_list, transform, augment=None):'''* `label_list`: 标签与文件路径的映射列表* `transform`: 数据处理函数* `augment`: 数据增强函数(默认为空)'''super(MyDataset, self).__init__()random.shuffle(label_list)      # 打乱映射列表self.label_list = label_listself.transform = transformself.augment = augmentdef __getitem__(self, index):''' 根据位序获取对应数据 '''img_path, label = self.label_list[index]img = self.transform(img_path, self.augment)return img, int(label)def __len__(self):''' 获取数据集样本总数 '''return len(self.label_list)def data_mapper(img_path, augment=None, show=False):''' 图像处理函数 '''img = Image.open(img_path).convert("RGB")   # 以RGB模式打开图片# 将其缩放为224*224的高质量图像:img = img.resize((224, 224), Image.ANTIALIAS)if show:                  # 展示图像display(img)if augment is not None:   # 数据增强img = augment(img)# 把图像变成一个numpy数组以匹配数据馈送格式:img = np.array(img).astype("float32")# 将图像矩阵由“rgb,rgb,rbg...”转置为“rr...,gg...,bb...”:img = img.transpose((2, 0, 1))# 将图像数据归一化,并转换成Tensor格式:img = paddle.to_tensor(img / 255.0)return img
train_dataset = MyDataset(train_list, data_mapper, image_augment) # 训练集
test_dataset = MyDataset(test_list, data_mapper, augment=None)    # 测试集
  • 定义数据提供器
    我们需要分别构建用于训练和测试的数据提供器,其中训练数据提供器是乱序、按批次提供数据的。
train_loader = DataLoader(train_dataset,            # 训练数据集batch_size=BATCH_SIZE,    # 每批读取的样本数num_workers=0,            # 加载数据的子进程个数shuffle=True,             # 打乱训练数据集drop_last=False)          # 不丢弃不完整的样本test_loader = DataLoader(test_dataset,              # 测试数据集batch_size=BATCH_SIZE,     # 每批读取的样本数num_workers=0,             # 加载数据的子进程个数shuffle=False,             # 不打乱测试数据集drop_last=False)           # 不丢弃不完整的样本

3.2. 网络配置

  • 模型改进
    原始的VGG16包含13个卷积层、5个池化层、3个全连接层,它常常被用于分类问题。由于本实验的数据集并不是特别大,而实验模型又比较复杂,因此需要改进VGG16模型。为了减少模型的复杂程度,我们选择用一层全局池化层来取代VGG16模型的前两层全连接层(模型结构如下图所示),这样可以大大减少我们需要训练的参数。这对于简化实验模型、防止出现过拟合、提升模型训练速度等,均有很大的帮助。
class ConvBN2d(nn.Layer):''' Conv2D with BatchNorm2D and ReLU '''def __init__(self, in_channels: int, out_channels: int,kernel_size: int, stride=1, padding=0):'''* `in_channels`: 输入通道数* `out_channels`: 输出通道数* `kernel_size`: 卷积核大小* `stride`: 卷积运算的步长* `padding`: 卷积填充的大小'''super(ConvBN2d, self).__init__()self.net = nn.Sequential(nn.Conv2D(in_channels, out_channels, kernel_size, stride, padding),nn.BatchNorm2D(out_channels),nn.ReLU())def forward(self, x):return self.net(x)
class ConvPool(nn.Layer):''' Conv-Pool Block '''def __init__(self, conv_args: tuple, pool_args: tuple,conv_num=1, pool_type="max"):'''* `conv_args`: 卷积层参数([输入通道数,输出通道数,卷积核大小,卷积步长,填充长度])* `pool_args`: 池化层参数([池化核大小,池化步长,填充长度] or [])* `conv_num`: 卷积层的个数* `pool_type`: 池化类型(max or avg or global)'''super(ConvPool, self).__init__()# (1) 定义卷积层:for i in range(conv_num):  # 定义conv_num个卷积层conv = ConvBN2d(*conv_args)conv_args[0] = conv_args[1]self.add_sublayer("conv_%d" % i, conv)# (2) 定义池化层:pool_type = pool_type.lower()if pool_type == "max":      # 最大池化pool = nn.MaxPool2D(*pool_args)elif pool_type == "avg":    # 平均池化pool = nn.AvgPool2D(*pool_args)else:                       # 全局平均池化pool = nn.AdaptiveAvgPool2D(1)self.add_sublayer("pool", pool)def forward(self, x):for name, sublayer in self.named_children():x = sublayer(x)return x
class VGG(nn.Layer):def __init__(self, in_channels=3, n_classes=2, mtype=16, global_pool=False):'''* `in_channels`: 输入的通道数* `n_classes`: 输出分类数量* `mtype`: VGG类型 (11 or 13 or 16 or 19)* `global_pool`: 是否用全局平均池化改进VGG'''super(VGG, self).__init__()if mtype == 11:          # Type A => VGG-11nums = [1, 1, 2, 2, 2]elif mtype == 13:        # Type B => VGG-13nums = [2, 2, 2, 2, 2]elif mtype == 16:        # Type D => VGG-16nums = [2, 2, 3, 3, 3]elif mtype == 19:        # Type E => VGG-19nums = [2, 2, 4, 4, 4]else:raise NotImplementedError("The [mtype] must in [11, 13, 16, 19].")self.conv1 = ConvPool([in_channels, 64, 3, 1, 1], [2, 2], nums[0], "max")self.conv2 = ConvPool([64, 128, 3, 1, 1], [2, 2], nums[1], "max")self.conv3 = ConvPool([128, 256, 3, 1, 1], [2, 2], nums[2], "max")self.conv4 = ConvPool([256, 512, 3, 1, 1], [2, 2], nums[3], "max")if global_pool:self.conv5 = ConvPool([512, 512, 3, 1, 1], [], nums[4], "global")self.linear = nn.Sequential(nn.Flatten(1, -1),nn.Linear(512, n_classes))else:self.conv5 = ConvPool([512, 512, 3, 1, 1], [2, 2], nums[4], "max")self.linear = nn.Sequential(nn.Flatten(1, -1),nn.Linear(512*7*7, 4096),nn.ReLU(),nn.Dropout(0.5),nn.Linear(4096, 4096),nn.ReLU(),nn.Dropout(0.5),nn.Linear(4096, n_classes))def forward(self, x):x = self.conv1(x)       # conv1 => 64*112*112x = self.conv2(x)       # conv2 => 128*56*56x = self.conv3(x)       # conv3 => 256*28*28x = self.conv4(x)       # conv4 => 512*14*14x = self.conv5(x)       # conv5 => 512*7*7y = self.linear(x)      # linear => n_classesreturn y
  • 实例化模型
model = VGG(in_channels=3, n_classes=CLASS_DIM, mtype=16, global_pool=True)     # VGG-16

3.3. 模型训练

model.train()                # 开启训练模式
scheduler = NaturalExpDecay(learning_rate=INIT_LR,gamma=LR_DECAY
)                            # 定义学习率衰减器
optimizer = Adam(learning_rate=scheduler,parameters=model.parameters()
)                            # 定义Adam优化器
loss_arr, acc_arr = [], []   # 用于可视化for ep in range(EPOCHS):for batch_id, data in enumerate(train_loader()):x_data, y_data = datay_data = y_data[:, np.newaxis]          # 增加一维维度y_pred = model(x_data)                  # 预测结果acc = M.accuracy(y_pred, y_data)        # 计算准确率loss = F.cross_entropy(y_pred, y_data)  # 计算交叉熵if batch_id != 0 and batch_id % LOG_GAP == 0:   # 定期输出训练结果print("Epoch:%d,Batch:%3d,Loss:%.5f,Acc:%.5f"\% (ep, batch_id, loss, acc))acc_arr.append(acc.item())loss_arr.append(loss.item())optimizer.clear_grad()loss.backward()optimizer.step()scheduler.step()       # 每轮衰减一次学习率paddle.save(model.state_dict(), MODEL_PATH)  # 保存训练好的模型

模型训练结果如下:

Epoch:0,Batch:  0,Loss:0.65380,Acc:0.59375
Epoch:0,Batch:100,Loss:0.35155,Acc:0.76562
Epoch:1,Batch:  0,Loss:0.10918,Acc:0.96875
Epoch:1,Batch:100,Loss:0.17284,Acc:0.90625
Epoch:2,Batch:  0,Loss:0.09818,Acc:0.95312
Epoch:2,Batch:100,Loss:0.12185,Acc:0.95312
Epoch:3,Batch:  0,Loss:0.24998,Acc:0.95312
Epoch:3,Batch:100,Loss:0.10257,Acc:0.93750
Epoch:4,Batch:  0,Loss:0.16910,Acc:0.98438
Epoch:4,Batch:100,Loss:0.09855,Acc:0.98438
Epoch:5,Batch:  0,Loss:0.06119,Acc:0.98438
Epoch:5,Batch:100,Loss:0.09231,Acc:0.95312
Epoch:6,Batch:  0,Loss:0.08556,Acc:0.96875
Epoch:6,Batch:100,Loss:0.02138,Acc:1.00000
Epoch:7,Batch:  0,Loss:0.06875,Acc:0.98438
Epoch:7,Batch:100,Loss:0.05027,Acc:0.98438
  • 可视化训练过程
fig = plt.figure(figsize=[10, 8])# 训练误差图像:
ax1 = fig.add_subplot(211, facecolor="#E8E8F8")
ax1.set_ylabel("Loss", fontsize=18)
plt.tick_params(labelsize=14)
ax1.plot(range(len(loss_arr)), loss_arr, color="orangered")
ax1.grid(linewidth=1.5, color="white")  # 显示网格# 训练准确率图像:
ax2 = fig.add_subplot(212, facecolor="#E8E8F8")
ax2.set_xlabel("Training Steps", fontsize=18)
ax2.set_ylabel("Accuracy", fontsize=18)
plt.tick_params(labelsize=14)
ax2.plot(range(len(acc_arr)), acc_arr, color="dodgerblue")
ax2.grid(linewidth=1.5, color="white")  # 显示网格fig.tight_layout()
plt.show()
plt.close()

3.4. 模型评估

model.eval()                 # 开启评估模式
test_costs, test_accs = [], []for batch_id, data in enumerate(test_loader()):x_data, y_data = datay_data = y_data[:, np.newaxis]          # 增加一维维度y_pred = model(x_data)                  # 预测结果acc = M.accuracy(y_pred, y_data)        # 计算准确率loss = F.cross_entropy(y_pred, y_data)  # 计算交叉熵test_accs.append(acc.item())test_costs.append(loss.item())
test_loss = np.mean(test_costs)    # 每轮测试的平均误差
test_acc = np.mean(test_accs)      # 每轮测试的平均准确率
print("Eval \t Loss:%.5f,Acc:%.5f" % (test_loss, test_acc))

模型评估结果如下:

Eval 	 Loss:0.03680,Acc:0.98849

3.5. 模型预测

model.eval()                 # 开启评估模式
model.set_state_dict(paddle.load(MODEL_PATH)
)   # 载入预训练模型参数for idx, img_path in enumerate(INFER_PATH):image = data_mapper(img_path, show=True)  # 获取预测图片image = image[np.newaxis, :, :, :]result = model(image).numpy()             # 开始模型预测lab = str(np.argmax(result))              # 获取result数组最大值的索引print("图%d的预测结果:%s" % (idx+1, LAB_DICT[lab]))

模型预测结果如下:

图1的预测结果为:没戴口罩

图2的预测结果为:没戴口罩

图3的预测结果为:戴了口罩

图4的预测结果为:戴了口罩

写在最后

  • 如果您发现项目存在问题,或者如果您有更好的建议,欢迎在下方评论区中留言讨论~
  • 这是本项目的链接:实验项目 - AI Studio,点击fork可直接在AI Studio运行~
  • 这是我的个人主页:个人主页 - AI Studio,来AI Studio互粉吧,等你哦~
  • 【友链滴滴】欢迎大家随时访问我的个人博客~

这篇关于【VGG】口罩人脸分类的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/946704

相关文章

雨量传感器的分类和选型建议

物理原理分类 机械降雨量计(雨量桶):最早使用的降雨量传感器,通过漏斗收集雨水并记录。主要用于长期降雨统计,故障率较低。电容式降雨量传感器:基于两个电极之间的电容变化来计算降雨量。当降雨时,水滴堵住电极空间,改变电容值,从而计算降雨量。超声波式降雨量传感器:利用超声波的反射来计算降雨量。适用于大降雨量的场合。激光雷达式降雨量传感器:利用激光技术测量雨滴的速度、大小和形状等参数,并计算降雨量。主

气象站的种类和应用范围可以根据不同的分类标准进行详细的划分和描述

气象站的种类和应用范围可以根据不同的分类标准进行详细的划分和描述。以下是从不同角度对气象站的种类和应用范围的介绍: 一、气象站的种类 根据用途和安装环境分类: 农业气象站:专为农业生产服务,监测土壤温度、湿度等参数,为农业生产提供科学依据。交通气象站:用于公路、铁路、机场等交通场所的气象监测,提供实时气象数据以支持交通运营和调度。林业气象站:监测林区风速、湿度、温度等气象要素,为林区保护和

多态的分类

多态分为两种:通用的多态和特定的多态。两者的区别是前者对工作的类型不加限制,允许对不同类型的值执行相同的代码;后者只对有限数量的类型有效,而且对不同类型的值可能要执行不同的代码。 1,通用的多态又分为参数多态(parametric)和包含多态(inclusion); (1)参数多态:采用参数化模板,通过给出不同的类型参数,使得一个结构有多种类型。 例如:泛型   (2)包含多

【论文精读】分类扩散模型:重振密度比估计(Revitalizing Density Ratio Estimation)

文章目录 一、文章概览(一)问题的提出(二)文章工作 二、理论背景(一)密度比估计DRE(二)去噪扩散模型 三、方法(一)推导分类和去噪之间的关系(二)组合训练方法(三)一步精确的似然计算 四、实验(一)使用两种损失对于实现最佳分类器的重要性(二)去噪结果、图像质量和负对数似然 论文:Classification Diffusion Models: Revitalizing

第T2周:彩色图片分类

🍨 本文为🔗365天深度学习训练营 中的学习记录博客🍖 原作者:K同学啊 👉 要求: 学习如何编写一个完整的深度学习程序了解分类彩色图片会灰度图片有什么区别测试集accuracy到达72% 🦾我的环境: 语言环境:Python3.8编译器:Jupyter Lab深度学习环境: TensorFlow2 一、 前期准备 1.1. 设置GPU 如果设备上支持GPU就

【Python机器学习】NMF——将NMF应用于人脸图像

将NMF应用于之前用过的Wild数据集中的Labeled Faces。NMF的主要参数是我们想要提取的分量个数。通常来说,这个数字要小于输入特征的个数(否则的话,将每个像素作为单独的分量就可以对数据进行解释)。 首先,观察分类个数如何影响NMF重建数据的好坏: import mglearn.plotsimport numpy as npimport matplotlib.pyplot as

细粒度图像分类论文阅读笔记

细粒度图像分类论文阅读笔记 摘要Abstract1. 用于细粒度图像分类的聚合注意力模块1.1 文献摘要1.2 研究背景1.3 本文创新点1.4 计算机视觉中的注意力机制1.5 模型方法1.5.1 聚合注意力模块1.5.2 通道注意力模块通道注意力代码实现 1.5.3 空间注意力模块空间注意力代码实现 1.5.4 CBAM注意力机制CBAM注意力代码实现 1.5.5 本文模型整体架构 1.6

Flask中制作博客首页的分类功能(二)

在Flask中制作博客首页的分类功能(一)的基础上,继续下面的教程。 发布文章的时候会为文章添加一些标签(tag),这些tag需要和数据库中Category表的tag进行比较,如果已经存在该tag,那么需要将新发表文章的tag与已存在的表格进行对应,如果不存在则要新建一个category表。 首先在python shell中执行操作。 from sql_test import db, Pos

机器学习算法(二):1 逻辑回归的从零实现(普通实现+多项式特征实现非线性分类+正则化实现三个版本)

文章目录 前言一、普通实现1 数据集准备2 逻辑回归模型3 损失函数4 计算损失函数的梯度5 梯度下降算法6 训练模型 二、多项式特征实现非线性分类1 数据准备与多项式特征构造2 逻辑回归模型 三、逻辑回归 --- 正则化实现1 数据准备2 逻辑回归模型3 正则化损失函数4 计算损失函数的梯度5 梯度下降6 训练模型 总结 前言 今天我们开始介绍逻辑回归的从零开始实现代码了,

选择器的基本分类和扩展选择器

div:行级标签  2个div之间会换行 span:块级标签 p:行级标签:2个p之间会换行,且有个空行