实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版

2024-06-19 13:48

本文主要是介绍实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

注意事项

和老师用tensorflow写的结果不同,不过测试集准度更高了,以下几点原因:
1.没用Xaiver初始化,使用了pytorch默认的初始化方式
2.pytorch和tensorflow的padding机制不同,没有特意去还原tensorflow的方式,pytorch的padding设置值不可以比卷积核的宽度一半大,所以当步长大,用默认方式“SAME”不了
3.全连接层的线性函数输出神经元老师用的是6个,这里用了20个(因为第2点,加上ReLU,用6个神经元会梯度消失,100步以内不收敛)

吐槽一句pytorch的padding方式不太友好,要自己算,tensorflow直接padding="SAME"就行了


资料下载

相关文件可在【tensorflow版大佬】下载


备注

week1作业有两个:
第一部分:用numpy还原卷积神经网络的实现过程
第二部分:用框架实现卷积神经网络

这里只包含第二部分的内容


载入库

import torch
from torch.utils.data import DataLoader, TensorDataset
from torch import nn
import numpy as np
from matplotlib import pyplot as plt
from cnn_utils import load_dataset

数据预处理

# 设置随机种子
torch.manual_seed(1)# 载入数据
X_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()# 可视化一个样本
index = 6
plt.imshow(X_train_orig[index])
print('y=' + str(np.squeeze(Y_train_orig[:, index])))
plt.show()# 归一化数据集
X_train = np.transpose(X_train_orig, (0, 3, 1, 2))/255          # 将维度转为(1080, 3, 64, 64)
X_test = np.transpose(X_test_orig, (0, 3, 1, 2))/255            # 将维度转为(120, 3, 64, 64)
# 转置y
Y_train = Y_train_orig.T                    # (1080, 1)
Y_test = Y_test_orig.T                      # (120, 1)print('number of training examples = ' + str(X_train.shape[0]))
print('number of test examples = ' + str(X_test.shape[0]))
print('X_train shape: ' + str(X_train.shape))
print('Y_train shape: ' + str(Y_train.shape))
print('X_test shape: ' + str(X_test.shape))
print('Y_test shape: ' + str(Y_test.shape))

可视化一个样本:
在这里插入图片描述
打印维度:

number of training examples = 1080
number of test examples = 120
X_train shape: (1080, 3, 64, 64)
Y_train shape: (1080, 1)
X_test shape: (120, 3, 64, 64)
Y_test shape: (120, 1)

建模部分

# 创建数据接口
def data_loader(X_train, Y_train, batch_size=64):train_db = TensorDataset(torch.from_numpy(X_train).float(), torch.squeeze(torch.from_numpy(Y_train)))train_loader = DataLoader(train_db, batch_size=batch_size, shuffle=True)return train_loader# 构建模型
class CNN(nn.Module):def __init__(self):# 继承模块super(CNN, self).__init__()self.conv1 = nn.Sequential(nn.Conv2d(                              # input shape (3, 64, 64)in_channels=3,                      # input通道数out_channels=8,                     # output通道数kernel_size=4,                      # 卷积核的边长fstride=1,                           # 步长padding=1                           # padding模式为SAME,=[(s-1)n-s+f]/2,这里算出来不是整数,向下取整了),nn.ReLU(),nn.MaxPool2d(kernel_size=8, stride=8, padding=4))self.conv2 = nn.Sequential(                 # input shape (8, 64, 64)nn.Conv2d(8, 16, 2, 1, 1),nn.ReLU(),nn.MaxPool2d(kernel_size=4, stride=4, padding=2))self.fullconnect = nn.Sequential(nn.Linear(16 * 3 * 3, 20),nn.ReLU())self.classifier = nn.LogSoftmax(dim=1)def forward(self, x):x = self.conv1(x)x = self.conv2(x)# 展平x = x.view(x.size(0), -1)x = self.fullconnect(x)output = self.classifier(x)return outputdef weigth_init(m):if isinstance(m, nn.Conv2d):nn.init.xavier_uniform_(m.weight.data)nn.init.constant_(m.bias.data, 0)elif isinstance(m, nn.Linear):nn.init.xavier_uniform_(m.weight.data)nn.init.constant_(m.bias.data, 0)def model(X_train, Y_train, X_test, Y_test, learning_rate=0.009, num_epochs=100, minibatch_size=64, print_cost=True,is_plot=True):train_loader = data_loader(X_train, Y_train, minibatch_size)cnn = CNN()# cnn.apply(weigth_init)cost_func = nn.NLLLoss()optimizer = torch.optim.Adam(cnn.parameters(), lr=learning_rate, betas=(0.9, 0.999))# 保存每次迭代的cost的列表costs = []# 批次数量m = X_train.shape[0]num_batch = m / minibatch_sizefor epoch in range(num_epochs):epoch_cost = 0for step, (batch_x, batch_y) in enumerate(train_loader):# 前向传播output = cnn(batch_x)# 计算成本cost = cost_func(output, batch_y)epoch_cost += cost.data.numpy() / num_batch# 梯度归零optimizer.zero_grad()# 反向传播cost.backward()# 更新参数optimizer.step()if print_cost and epoch % 5 == 0:costs.append(epoch_cost)print('Cost after epoch %i : %f' % (epoch, epoch_cost))# 画学习曲线if is_plot:plt.plot(costs)plt.xlabel('iterations per 5')plt.ylabel('cost')plt.show()# 保存学习后的参数torch.save(cnn.state_dict(), 'net_params.pkl')print('参数已保存到本地pkl文件。')# 预测训练集cnn.load_state_dict(torch.load('net_params.pkl'))output_train = cnn(torch.from_numpy(X_train).float())pred_Y_train = torch.max(output_train, dim=1)[1].data.numpy()# 预测测试集output_test = cnn(torch.from_numpy(X_test).float())pred_Y_test= torch.max(output_test, dim=1)[1].data.numpy()# 训练集准确率print('Train Accuracy: %.2f %%' % float(np.sum(np.squeeze(Y_train) == pred_Y_train)/m*100))# 测试集准确率print('Test Accuracy: %.2f %%' % float(np.sum(np.squeeze(Y_test) == pred_Y_test)/X_test.shape[0]*100))return cnnmodel(X_train, Y_train, X_test, Y_test)

迭代过程:

Cost after epoch 0 : 2.401703
Cost after epoch 5 : 1.341189
Cost after epoch 10 : 0.801924
Cost after epoch 15 : 0.567850
Cost after epoch 20 : 0.446336
Cost after epoch 25 : 0.342109
Cost after epoch 30 : 0.278837
Cost after epoch 35 : 0.182508
Cost after epoch 40 : 0.152718
Cost after epoch 45 : 0.124633
Cost after epoch 50 : 0.103368
Cost after epoch 55 : 0.099265
Cost after epoch 60 : 0.092497
Cost after epoch 65 : 0.067059
Cost after epoch 70 : 0.080446
Cost after epoch 75 : 0.101512
Cost after epoch 80 : 0.051409
Cost after epoch 85 : 0.021475
Cost after epoch 90 : 0.017657
Cost after epoch 95 : 0.010164

学习曲线:
在这里插入图片描述

训练准确率与测试准确率:

Train Accuracy: 100.00 %
Test Accuracy: 90.83 %

到这就完成啦~

这篇关于实现卷积神经网络:吴恩达Course 4-卷积神经网络-week1作业 pytorch版的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/1075203

相关文章

SpringBoot实现微信小程序支付功能

《SpringBoot实现微信小程序支付功能》小程序支付功能已成为众多应用的核心需求之一,本文主要介绍了SpringBoot实现微信小程序支付功能,文中通过示例代码介绍的非常详细,对大家的学习或者工作... 目录一、引言二、准备工作(一)微信支付商户平台配置(二)Spring Boot项目搭建(三)配置文件

pytorch之torch.flatten()和torch.nn.Flatten()的用法

《pytorch之torch.flatten()和torch.nn.Flatten()的用法》:本文主要介绍pytorch之torch.flatten()和torch.nn.Flatten()的用... 目录torch.flatten()和torch.nn.Flatten()的用法下面举例说明总结torch

基于Python实现高效PPT转图片工具

《基于Python实现高效PPT转图片工具》在日常工作中,PPT是我们常用的演示工具,但有时候我们需要将PPT的内容提取为图片格式以便于展示或保存,所以本文将用Python实现PPT转PNG工具,希望... 目录1. 概述2. 功能使用2.1 安装依赖2.2 使用步骤2.3 代码实现2.4 GUI界面3.效

MySQL更新某个字段拼接固定字符串的实现

《MySQL更新某个字段拼接固定字符串的实现》在MySQL中,我们经常需要对数据库中的某个字段进行更新操作,本文就来介绍一下MySQL更新某个字段拼接固定字符串的实现,感兴趣的可以了解一下... 目录1. 查看字段当前值2. 更新字段拼接固定字符串3. 验证更新结果mysql更新某个字段拼接固定字符串 -

java实现延迟/超时/定时问题

《java实现延迟/超时/定时问题》:本文主要介绍java实现延迟/超时/定时问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Java实现延迟/超时/定时java 每间隔5秒执行一次,一共执行5次然后结束scheduleAtFixedRate 和 schedu

Java Optional避免空指针异常的实现

《JavaOptional避免空指针异常的实现》空指针异常一直是困扰开发者的常见问题之一,本文主要介绍了JavaOptional避免空指针异常的实现,帮助开发者编写更健壮、可读性更高的代码,减少因... 目录一、Optional 概述二、Optional 的创建三、Optional 的常用方法四、Optio

在Android平台上实现消息推送功能

《在Android平台上实现消息推送功能》随着移动互联网应用的飞速发展,消息推送已成为移动应用中不可或缺的功能,在Android平台上,实现消息推送涉及到服务端的消息发送、客户端的消息接收、通知渠道(... 目录一、项目概述二、相关知识介绍2.1 消息推送的基本原理2.2 Firebase Cloud Me

Spring Boot项目中结合MyBatis实现MySQL的自动主从切换功能

《SpringBoot项目中结合MyBatis实现MySQL的自动主从切换功能》:本文主要介绍SpringBoot项目中结合MyBatis实现MySQL的自动主从切换功能,本文分步骤给大家介绍的... 目录原理解析1. mysql主从复制(Master-Slave Replication)2. 读写分离3.

Redis实现延迟任务的三种方法详解

《Redis实现延迟任务的三种方法详解》延迟任务(DelayedTask)是指在未来的某个时间点,执行相应的任务,本文为大家整理了三种常见的实现方法,感兴趣的小伙伴可以参考一下... 目录1.前言2.Redis如何实现延迟任务3.代码实现3.1. 过期键通知事件实现3.2. 使用ZSet实现延迟任务3.3

基于Python和MoviePy实现照片管理和视频合成工具

《基于Python和MoviePy实现照片管理和视频合成工具》在这篇博客中,我们将详细剖析一个基于Python的图形界面应用程序,该程序使用wxPython构建用户界面,并结合MoviePy、Pill... 目录引言项目概述代码结构分析1. 导入和依赖2. 主类:PhotoManager初始化方法:__in